国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版)

這篇具有很好參考價值的文章主要介紹了Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一、實驗?zāi)繕?/h3>

通過Java API來操作HDFS文件系統(tǒng)HDFS,相關(guān)的操作有:文件上傳、文件下載、新建文件夾、查看文件、刪除文件。

二、條件準備

1.Linux下安裝好hadoop,這里使用hadoop2.7.3

2.window解壓hadoop2.7.3的包Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

2.Windows下安裝好jdk1.8

?3.Windows下安裝好IDEA,這里使用IDEA2022

4.Windows下安裝好maven,這里使用Maven3.6.3

5.在win系統(tǒng)下不配置hadoop環(huán)境,直接運行代碼會報錯,顯示缺少winutils.exe 和 hadoop.dll 兩個文件.? ? (文件位于個人主頁&(13條消息) Hadoop系統(tǒng)應(yīng)用之java-API對HDFS的操作實驗缺少的兩個文件-桌面系統(tǒng)文檔類資源-CSDN文庫)

6.將hadoop-2.7.3文件夾拷貝到一個沒有中文的路徑中;

7.把winutils.exe 和 hadoop.dll 兩個文件放到hadoop-2.7.3文件夾中bin目錄下

8.在windows系統(tǒng),配置hadoop的環(huán)境變量: HADOOP_HOME,并將%HADOOP_HOME%\bin添加到path中.

9.把hadoop-2.7.3文件夾中bin目錄下的hadoop.dll 放到系統(tǒng)盤: C:Windows \System32目錄下

三、用idea創(chuàng)建對應(yīng)的Java項目

1.新建一個Maven工程?

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

2.在pom.xml添加相關(guān)依賴(ctr+s保存后,會下載對應(yīng)的依賴)Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

?代碼如下

  <dependencies>
        <!-- Hadoop所需依賴包 -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.7.3</version>
        </dependency>


        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>2.7.3</version>
        </dependency>


        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.7.3</version>
        </dependency>

        <!-- junit測試依賴 -->
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>RELEASE</version>
        </dependency>
    </dependencies>

</project>

?3.右下角下載依賴

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

?4.查看依賴和外部庫

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

?Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

?四、初始化

1.創(chuàng)建一個java類,添加對應(yīng)代碼

public class JavaAPI {
    FileSystem hdfs = null;

    public JavaAPI() {
    }

    @Before
    public void init() throws IOException {
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://yangjian00:9000");
        System.setProperty("HADOOP_USER_NAME", "root");
        this.hdfs = FileSystem.get(conf);
    }

    @After
    public void close() throws IOException {
        this.hdfs.close();
    }
}

?ps:上面代碼中的參數(shù)"hdfs://yangjian00:9000"是hadoop配置文件中core-site.xml的配置信息,

五、HDFS代碼操作

1.上傳文件到HDFS文件系統(tǒng)

(1)我在D盤的HDFS文件夾下面創(chuàng)建了個test.txt文本

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

(2)寫入代碼

    /*
    上傳測試
     */
    @Test
    public void testUploadFileToHDFS() throws IOException {
        // 待上傳的文件路徑(windows)
        Path src = new Path("D:\\Hadoop\\HDFS");
        // 上傳之后存放的路徑(HDFS)
        Path dst = new Path("/TEXT");
        // 上傳
        hdfs.copyFromLocalFile(src,dst);
        System.out.println("上傳成功");
    }

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

(3)在centos的Hadoop中查看test.txt文件(上傳成功)

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

?2.從HDFS下載文件到本地

(1)寫入下載代碼

  /*
    下載測試
     */
    @Test
    public void testDownFileToLocal() throws IOException {
        // 待下載的路徑(HDFS)
        Path src = new Path("/TEXT.txt");
        // 下載成功之后存放的路徑(windows)
        Path dst = new Path("D:\\Hadoop\\HDFS\\TEXT1");
        // 下載
        hdfs.copyToLocalFile(false,src,dst,true);
        System.out.println("下載成功");

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

(2)從瀏覽器中下載查看

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

?3.在HDFS中創(chuàng)建目錄

(1)寫入代碼

/*
創(chuàng)建目錄測試
 */
    @Test
    public void testMkdirFile() throws IOException {
        // 待創(chuàng)建目錄路徑
        Path src = new Path("/YYDS");
        // 創(chuàng)建目錄
        hdfs.mkdirs(src);
        System.out.println("創(chuàng)建成功");
    }

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

?(2)從瀏覽器中下載查看

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

4.從新命名測試

(1)寫入代碼

/*
重命名測試
 */
    @Test
    public void testRenameFile() throws IOException {
        // 重命名之前的名字
        Path src = new Path("/YYDS");
        // 重命名之后的名字
        Path dst = new Path("/HDFS2");
        // 重命名
        hdfs.rename(src,dst);
        System.out.println("重命名成功");
    }

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

?(2)從瀏覽器中下載查看

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

5.刪除測試

       /*
刪除測試
 */
       @Test
       public void testRM() throws  IOException {
           hdfs.delete(new Path("/HDFS"),true);
           hdfs.delete(new Path("/HDFS1"), true);
           hdfs.delete(new Path("/tmp"), true);
       }

Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版),hadoop,java,hdfs

?

??文章來源地址http://www.zghlxwxcb.cn/news/detail-754963.html

到了這里,關(guān)于Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Hadoop 使用Linux操作系統(tǒng)與Java熟悉常用的HDFS操作

    Hadoop 使用Linux操作系統(tǒng)與Java熟悉常用的HDFS操作

    注意看評論區(qū)獲取完整代碼資料 目錄 一、實驗?zāi)康?二、實驗平臺 三、實驗步驟 理解HDFS在Hadoop體系結(jié)構(gòu)中的角色; 熟練使用HDFS操作常用的Shell命令; 熟悉HDFS操作常用的Java API。 操作系統(tǒng):Linux(建議Ubuntu16.04); Hadoop版本:2.7.1; JDK版本:1.8或以上版本; Java IDE:Eclipse。

    2024年02月03日
    瀏覽(22)
  • 【Hadoop】HDFS API 操作大全

    【Hadoop】HDFS API 操作大全

    ?? 個人主頁——??開著拖拉機回家_Linux,大數(shù)據(jù)運維-CSDN博客 ????? ???? 希望本文能夠給您帶來一定的幫助??文章粗淺,敬請批評指正!???? ???????????????? ?????????????? ???????????????????????? ?????? ???????? 感謝點贊和關(guān)注 ,

    2024年02月07日
    瀏覽(18)
  • Hadoop HDFS的API操作

    Hadoop HDFS的API操作

    hadoop的 Windows依賴文件夾,拷貝hadoop-3.1.0到非中文路徑(比如d:)。 配置HADOOP_HOME環(huán)境變量 配置Path環(huán)境變量。 不能放在包含有空格的目錄下,cmd 輸入hadoop顯示此時不應(yīng)有 hadoop-3.0.0bin。我放在E:Program Files (x86) hadoop-3.0.0bin中,就出現(xiàn)錯誤 驗證Hadoop環(huán)境變量是否正常。雙擊

    2024年02月05日
    瀏覽(16)
  • HDFS相關(guān)API操作

    HDFS相關(guān)API操作

    HDFS API官方文檔:https://hadoop.apache.org/docs/r3.3.1/api/index.html 將Hadoop的Jar包解壓到非中文路徑(例如D:hadoophadoop-2.7.2) 配置HADOOP_HOME環(huán)境變量 配置Path環(huán)境變量 準備工作 創(chuàng)建一個[Maven]工程HdfsClientDemo 引入hadoop-client依賴 創(chuàng)建HdfsClient 類 創(chuàng)建文件夾 上面這樣寫代碼有點冗余,我們

    2024年02月02日
    瀏覽(17)
  • 從零開始的Hadoop學(xué)習(五)| HDFS概述、shell操作、API操作

    從零開始的Hadoop學(xué)習(五)| HDFS概述、shell操作、API操作

    1.1 HDFS 產(chǎn)出背景及定義 1) HDFS 產(chǎn)生背景 隨著數(shù)據(jù)量越來越大,在一個操作系統(tǒng)存不下所有的數(shù)據(jù),那么就分配到更多的操作系統(tǒng)管理的磁盤中,但是不方便管理和維護,迫切 需要一種系統(tǒng)來管理多臺機器上的文件 ,這就是分布式文件管理系統(tǒng)。 HDFS只是分布式文件管理系統(tǒng)

    2024年02月10日
    瀏覽(94)
  • Windwos安裝Hadoop 并在IDEA中利用Maven實現(xiàn)HDFS API操作

    Windwos安裝Hadoop 并在IDEA中利用Maven實現(xiàn)HDFS API操作

    本次hadoop的安裝系統(tǒng)為Windows10、Hadoop版本為3.3.6、Maven版本為3.9.4、Java版本為17.0.2。本教程基于前篇教程Hadoop集群、Java安裝均完成后的后續(xù)教程,如未完成安裝請查看前置教程。Hadoop、java安裝 ############################################################################################# 此外,大數(shù)

    2024年01月18日
    瀏覽(23)
  • hadoop調(diào)用HDFS java api實現(xiàn)在HDFS上創(chuàng)建文件夾

    hadoop調(diào)用HDFS java api實現(xiàn)在HDFS上創(chuàng)建文件夾

    目錄 一、前期準備 1、Hadoop集群已配置完畢 2、Linux系統(tǒng)安裝jdk 3、安裝并破解IntelliJ?IDEA 二、通過JAVA API操縱HDFS 1.在IDEA中創(chuàng)建項目 ?2.在hdfs項目的src-main-java路徑下創(chuàng)建一個包,然后在包下創(chuàng)建一個java類實現(xiàn)hdfs的文件操作 ?3.java類的代碼 4.對JAVA程序傳入?yún)?shù)后運行程序 ?5

    2024年02月08日
    瀏覽(92)
  • Hadoop系統(tǒng)應(yīng)用之MapReduce相關(guān)操作【IDEA版】---經(jīng)典案例“倒排索引、數(shù)據(jù)去重、TopN”

    Hadoop系統(tǒng)應(yīng)用之MapReduce相關(guān)操作【IDEA版】---經(jīng)典案例“倒排索引、數(shù)據(jù)去重、TopN”

    ? 倒排索引是文檔檢索系統(tǒng)中最常用的數(shù)據(jù)結(jié)構(gòu),被廣泛應(yīng)用于全文搜索引擎。倒排索引主要用來存儲某個單詞(或詞組)在一組文檔中的存儲位置的映射,提供了可以根據(jù)內(nèi)容來查找文檔的方式,而不是根據(jù)文檔來確定內(nèi)容,因此稱為倒排索引(Inverted Index)。帶有倒排索引

    2024年02月07日
    瀏覽(23)
  • Java Api操作HDFS

    Java Api操作HDFS

    鏈接:https://pan.baidu.com/s/1yUnJh-j9EKmL2hPF8biAtg?pwd=dv12 提取碼:dv12 之前配置的 Hadoop 的 core-site.xml 文件中的配置的 fs.defaultFS 地址是 hdfs://localhost:9000 ,然后后面 Java 連不上 hdfs 9000 端口也是打開了,但就是連不上 9870 端口也能正常訪問 防火墻也關(guān)閉了,也不行 查閱諸多資料發(fā)現(xiàn)問

    2024年04月28日
    瀏覽(15)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包