国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

云計(jì)算技術(shù) 實(shí)驗(yàn)四 HDFS操作方法和基礎(chǔ)編程

這篇具有很好參考價(jià)值的文章主要介紹了云計(jì)算技術(shù) 實(shí)驗(yàn)四 HDFS操作方法和基礎(chǔ)編程。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

參考資料為:

教材代碼-林子雨編著《大數(shù)據(jù)基礎(chǔ)編程、實(shí)驗(yàn)和案例教程(第2版)》教材所有章節(jié)代碼_廈大數(shù)據(jù)庫(kù)實(shí)驗(yàn)室博客

1.實(shí)驗(yàn)學(xué)時(shí)

4學(xué)時(shí)

2.實(shí)驗(yàn)?zāi)康?/strong>

  • 熟悉HDFS的基本shell命令
  • 熟悉HDFS的web管理
  • 掌握HDFS編程實(shí)踐

3.實(shí)驗(yàn)內(nèi)容

(一)參考實(shí)驗(yàn)指南的內(nèi)容,完成相關(guān)的HDFS的基本shell命令。

先啟動(dòng)hadoop:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

?輸入命令查看hdfs dfs支持的操作:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

?實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

?實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

?查看具體命令的作用:

?實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

?先新建文件夾:

?實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

運(yùn)行命令顯示HDFS與當(dāng)前用戶對(duì)應(yīng)目錄下的內(nèi)容:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

創(chuàng)建input目錄:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

刪除input文件:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

創(chuàng)建一個(gè)xml文件

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

復(fù)制文件到生成的input文件之中:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

查看HDFS中txt文件的內(nèi)容:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

將txt文件移動(dòng)到其他文件夾下:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

后面查看:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

(二)查看HDFS的網(wǎng)頁(yè)管理界面。請(qǐng)描述網(wǎng)頁(yè)界面中的各個(gè)參數(shù)的名稱。

查看HDFS網(wǎng)頁(yè)管理界面:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

(三)完成eclipse的安裝,在eclipse中創(chuàng)建項(xiàng)目,配置所需要的jar包,編寫(xiě)一個(gè)可以和HDFS相交互的Java應(yīng)用程序。

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

安裝完成之后進(jìn)入:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

?進(jìn)行對(duì)應(yīng)包的調(diào)用之后,開(kāi)始編寫(xiě)函數(shù):下面為java代碼

import java.io.IOException;
import java.io.PrintStream;
import java.net.URI;
 
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
 
/**
 * 過(guò)濾掉文件名滿足特定條件的文件 
 */
class MyPathFilter implements PathFilter {
     String reg = null; 
     MyPathFilter(String reg) {
          this.reg = reg;
     }
     public boolean accept(Path path) {
        if (!(path.toString().matches(reg)))
            return true;
        return false;
    }
}
/***
 * 利用FSDataOutputStream和FSDataInputStream合并HDFS中的文件
 */
public class MergeFile {
    Path inputPath = null; //待合并的文件所在的目錄的路徑
    Path outputPath = null; //輸出文件的路徑
    public MergeFile(String input, String output) {
        this.inputPath = new Path(input);
        this.outputPath = new Path(output);
    }
    public void doMerge() throws IOException {
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS","hdfs://localhost:9000");
          conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
        FileSystem fsSource = FileSystem.get(URI.create(inputPath.toString()), conf);
        FileSystem fsDst = FileSystem.get(URI.create(outputPath.toString()), conf);
                //下面過(guò)濾掉輸入目錄中后綴為.abc的文件
        FileStatus[] sourceStatus = fsSource.listStatus(inputPath,
                new MyPathFilter(".*\\.abc")); 
        FSDataOutputStream fsdos = fsDst.create(outputPath);
        PrintStream ps = new PrintStream(System.out);
        //下面分別讀取過(guò)濾之后的每個(gè)文件的內(nèi)容,并輸出到同一個(gè)文件中
        for (FileStatus sta : sourceStatus) {
            //下面打印后綴不為.abc的文件的路徑、文件大小
            System.out.print("路徑:" + sta.getPath() + "    文件大?。? + sta.getLen()
                    + "   權(quán)限:" + sta.getPermission() + "   內(nèi)容:");
            FSDataInputStream fsdis = fsSource.open(sta.getPath());
            byte[] data = new byte[1024];
            int read = -1;
 
            while ((read = fsdis.read(data)) > 0) {
                ps.write(data, 0, read);
                fsdos.write(data, 0, read);
            }
            fsdis.close();          
        }
        ps.close();
        fsdos.close();
    }
    public static void main(String[] args) throws IOException {
        MergeFile merge = new MergeFile(
                "hdfs://localhost:9000/user/hadoop/",
                "hdfs://localhost:9000/user/hadoop/merge.txt");
        merge.doMerge();
    }
}

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

?實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

?實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

?實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

?實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

(四)生成jar包,部署相關(guān)的應(yīng)用程序。

先生成一個(gè)文件夾存放信息:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

之后右鍵工作區(qū),彈出export:

?實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

之后在彈出的界面中選擇java包下的文件,進(jìn)入后填好運(yùn)行的java類(lèi)和將要保存到的包中:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

之后文件開(kāi)始打包:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

打包完成之后,在對(duì)應(yīng)的文件夾下發(fā)現(xiàn)打包好的文件:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

刪除merge文件之后,運(yùn)行這個(gè)打包好的文件:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

之后執(zhí)行命令查看文件信息:

實(shí)驗(yàn)4 hdfs操作方法和基礎(chǔ)編程(二),云計(jì)算,hdfs,云計(jì)算,大數(shù)據(jù)

4.思考題

(一)Hadoop中HDFS包含哪些命令,這些命令各自代表什么意思?

1.創(chuàng)建目錄

hdfs dfs -mkdir /

2.查看目錄下載文件

hdfs dfa -ls /???? hdfs dfs -ls /

3. 上傳本地文件

hdfs dfs -put a.txt /

4.刪除文件/目錄

刪除文件hdfs dfs -rm /test/a.txt? 刪除目錄hdfs dfs -rm -r /test

5. 復(fù)制文件

hdfs dfs -cp /test/a.txt /

(二)Hadoop創(chuàng)建的應(yīng)用程序,需要導(dǎo)入哪些安裝包,這些安裝包里面有什么功能?

1. hadoop-common-2.7.1.jar?? ??2. haoop-hdfs-2.7.1.jar
3.haoop-hdfs-nfs-2.7.1.jar; ??4. haoop-nfs-2.7.1.jar

安裝包的內(nèi)部對(duì)應(yīng)的目錄有著以下的功能:

sbin目錄:存放啟動(dòng)或停止hadoop相關(guān)服務(wù)的腳本

bin目錄:存放對(duì)hadoop相關(guān)服務(wù)(HDFS,YARN)進(jìn)行操作的腳本

etc目錄:hadoop的配置文件目錄,存放hadoop的配置文件

share目錄:存放hadoop的依賴jar包和文檔,文檔可以被刪除掉

5、lib目錄:存放hadoop的本地庫(kù)(對(duì)數(shù)據(jù)進(jìn)行壓縮解壓縮功能)

5.實(shí)驗(yàn)結(jié)論和體會(huì)

1.運(yùn)行hdfs的時(shí)候,需要注意先啟動(dòng)hadoop系統(tǒng),如果不清楚對(duì)應(yīng)的hdfs的操作,可以使用./bin/hdfs dfs,命令查看。

2.在ecplise導(dǎo)入jar包的時(shí)候,需要注意導(dǎo)入包的數(shù)量,注意不要漏導(dǎo)入包。

3.在運(yùn)行完成主程序之后,需要在hdfs上查看是否成功運(yùn)行生成對(duì)應(yīng)文件。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-717974.html

到了這里,關(guān)于云計(jì)算技術(shù) 實(shí)驗(yàn)四 HDFS操作方法和基礎(chǔ)編程的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 大數(shù)據(jù)編程實(shí)驗(yàn)一:HDFS常用操作和Spark讀取文件系統(tǒng)數(shù)據(jù)

    大數(shù)據(jù)編程實(shí)驗(yàn)一:HDFS常用操作和Spark讀取文件系統(tǒng)數(shù)據(jù)

    這是我們大數(shù)據(jù)專業(yè)開(kāi)設(shè)的第二門(mén)課程——大數(shù)據(jù)編程,使用的參考書(shū)是《Spark編程基礎(chǔ)》,這門(mén)課跟大數(shù)據(jù)技術(shù)基礎(chǔ)是分開(kāi)學(xué)習(xí)的,但這門(mén)課是用的我們自己在電腦上搭建的虛擬環(huán)境進(jìn)行實(shí)驗(yàn)的,不是在那個(gè)平臺(tái)上,而且搭建的還是偽分布式,這門(mén)課主要偏向于有關(guān)大數(shù)據(jù)

    2024年04月10日
    瀏覽(26)
  • 大數(shù)據(jù)技術(shù)原理及應(yīng)用課實(shí)驗(yàn)2 :熟悉常用的HDFS操作

    大數(shù)據(jù)技術(shù)原理及應(yīng)用課實(shí)驗(yàn)2 :熟悉常用的HDFS操作

    實(shí)驗(yàn)2 ?熟悉常用的HDFS操作 目錄 實(shí)驗(yàn)2 ?熟悉常用的HDFS操作 一、實(shí)驗(yàn)?zāi)康?二、實(shí)驗(yàn)平臺(tái) 三、實(shí)驗(yàn)步驟(每個(gè)步驟下均需有運(yùn)行截圖) (一)編程實(shí)現(xiàn)以下功能,并利用Hadoop提供的Shell命令完成相同任務(wù): (1)向HDFS中上傳任意文本文件,如果指定的文件在HDFS中已經(jīng)存在,則

    2024年04月14日
    瀏覽(36)
  • 熟悉常用的HDFS操作(大數(shù)據(jù)技術(shù)原理與應(yīng)用-第三章實(shí)驗(yàn))

    熟悉常用的HDFS操作(大數(shù)據(jù)技術(shù)原理與應(yīng)用-第三章實(shí)驗(yàn))

    首先啟動(dòng)Hadoop,命令如下: 在終端輸入如下命令,查看 hdfs dfs 總共支持哪些操作: 上述命令執(zhí)行后,會(huì)顯示如下的結(jié)果: 如果顯示 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable ,說(shuō)明環(huán)境變量 JAVA_LIBRARY_PATH 并未定義,首

    2024年02月01日
    瀏覽(20)
  • 實(shí)驗(yàn)二 HDFS的Shell命令操作,和HDFS的API操作

    實(shí)驗(yàn)二 HDFS的Shell命令操作,和HDFS的API操作

    來(lái)自博主卷毛迷你豬的授權(quán) ,這是我的老師的博客多多關(guān)注 掌握 Hadoop 中 HDFS 的 Shell 命令操作 掌握 Hadoop 中 HDFS 的API操作 ? 項(xiàng)目1:HDFS常見(jiàn)命令練習(xí) ? 項(xiàng)目2:HDFS命令的綜合運(yùn)用實(shí)踐 ? 項(xiàng)目3:HDFS的API使用實(shí)踐 ? 項(xiàng)目4:HDFS的API單元測(cè)試程序和更多思考(選做) ? HDFS是

    2024年04月26日
    瀏覽(25)
  • 實(shí)驗(yàn)二、熟悉常用的HDFS操作(HDFS JavaAPI之讀取/上傳/刪除文件)

    實(shí)驗(yàn)二、熟悉常用的HDFS操作(HDFS JavaAPI之讀取/上傳/刪除文件)

    理解HDFS在Hadoop體系結(jié)構(gòu)中的角色 熟練使用HDFS操作常用的shell命令 熟悉HDFS操作常用的Java API 操作系統(tǒng):CentOS 8 Hadoop版本:3.3.1 jdk版本:1.8 Java IDE:Eclipse 1. 使用Hadoop命令操作分布式文件系統(tǒng)。 新建目錄 在本地和hadoop中分別創(chuàng)建文件夾: 在本地創(chuàng)建目錄: Hadoop創(chuàng)建目錄: 上

    2023年04月08日
    瀏覽(29)
  • 實(shí)驗(yàn)2熟悉常用的HDFS操作

    實(shí)驗(yàn)2熟悉常用的HDFS操作

    (1)理解HDFS在Hadoop體系結(jié)構(gòu)中的角色; (2)熟練使用HDFS操作常用的Shell命令; (3)熟悉HDFS操作常用的Java API。 (1)操作系統(tǒng):Linux; (2)Hadoop版本:2.7.4 ; (3)JDK版本1.8; (4)Java IDE:eclipse ?。 (一)編程實(shí)現(xiàn)以下功能,并利用Hadoop提供的Shell命令完成相同任務(wù):

    2023年04月18日
    瀏覽(25)
  • 大數(shù)據(jù)實(shí)驗(yàn) 實(shí)驗(yàn)二:熟悉HDFS常用操作

    大數(shù)據(jù)實(shí)驗(yàn) 實(shí)驗(yàn)二:熟悉HDFS常用操作

    附件中有word版本的實(shí)驗(yàn)報(bào)告 理解HDFS在Hadoop體系結(jié)構(gòu)中的角色。 熟練使用HDFS操作常用的Shell命令。 熟悉HDFS操作常用的Java API。 Oracle VM VirtualBox虛擬機(jī) 系統(tǒng)版本centos7 JDK1.8版本 Hadoop-3.1.3 Windows11 Java IDE:IDEA 1.向HDFS中上傳任意文本文件,如果指定的文件在HDFS中已經(jīng)存在,由用戶

    2024年04月12日
    瀏覽(27)
  • 大數(shù)據(jù) | 實(shí)驗(yàn)一:大數(shù)據(jù)系統(tǒng)基本實(shí)驗(yàn) | 熟悉常用的HDFS操作

    大數(shù)據(jù) | 實(shí)驗(yàn)一:大數(shù)據(jù)系統(tǒng)基本實(shí)驗(yàn) | 熟悉常用的HDFS操作

    1 )理解 HDFS 在 Hadoop 體系結(jié)構(gòu)中的角色。 2 )熟練使用 HDFS 操作常用的 shell 命令。 3 )熟悉 HDFS 操作常用的 Java API。 1 )操作系統(tǒng):Linux; 2 )Hadoop 版本:3.2.2; 3 )JDK 版本:1.8; 4 )Java IDE:Eclipse。 編程實(shí)現(xiàn) 以下功能,并利用 Hadoop 提供的 Shell 命令 完成相同任務(wù) 1)向

    2024年02月02日
    瀏覽(24)
  • 云計(jì)算與大數(shù)據(jù)實(shí)驗(yàn)四 HDFS編程

    云計(jì)算與大數(shù)據(jù)實(shí)驗(yàn)四 HDFS編程

    一、實(shí)驗(yàn)?zāi)康?深入理解 HDFS 工作原理和編程思想 使用 HDFS 的 Java 接口進(jìn)行文件的讀寫(xiě) 使用 HDFS 的 Java 接口進(jìn)行之上傳文件 使用 HDFS 的 Java 接口進(jìn)行之刪除文件 二、實(shí)驗(yàn)內(nèi)容 HDFS 的 Java API 接口進(jìn)行文件的讀寫(xiě)操作 HDFS 的 Java API 接口進(jìn)行之上傳文件操作 HDFS 的 Java API 接口進(jìn)

    2024年02月08日
    瀏覽(18)
  • Hadoop原理與技術(shù)——hdfs命令行基本操作

    Hadoop原理與技術(shù)——hdfs命令行基本操作

    點(diǎn)擊鏈接查看文檔 一、實(shí)驗(yàn)?zāi)康?熟悉hdfs命令行基本操作 二、實(shí)驗(yàn)環(huán)境 Windows 10 VMware Workstation Pro虛擬機(jī) Hadoop環(huán)境 Jdk1.8 三、實(shí)驗(yàn)內(nèi)容 1:hdfs常見(jiàn)命令: (1)查看幫助:hdfs dfs -help (2)查看當(dāng)前目錄信息:hdfs dfs -ls / (3)創(chuàng)建文件夾:hdfs dfs -mkdir /文件夾名 (4)上傳文件:

    2023年04月16日
    瀏覽(17)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包