国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【Hadoop】-HDFS的Shell操作[3]

這篇具有很好參考價值的文章主要介紹了【Hadoop】-HDFS的Shell操作[3]。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

前言

一、HDFS集群啟停命令

1.一鍵啟停腳本可用

2.獨立進(jìn)程啟??捎?/p>

?二、文件系統(tǒng)操作命令

1、創(chuàng)建文件夾

2、查看指定目錄下內(nèi)容

3、上傳文件到HDFS指定目錄下?

4、查看HDFS文件內(nèi)容

5、下載HDFS文件

6、拷貝HDFS文件

7、追加數(shù)據(jù)到HDFS文件中

8、HDFS數(shù)據(jù)移動操作

9、HDFS數(shù)據(jù)刪除

!? HDFS WEB瀏覽

補(bǔ)充:修改權(quán)限

三、HDFS客戶端 - jetbrians產(chǎn)品插件

1.Big Data Tools插件

2、配置Windows

3、配置Big Data Tools插件

四、HDFS客戶端 - NFS

4.1使用NFS網(wǎng)關(guān)功能將HDFS掛載到本地系統(tǒng)

4.1.1、HDFS NFS Gateway

4.1.2、配置NFS

1.在core-site.xml內(nèi)新增如下兩項

2、在hdfs-site.xml中新增如下項

4.1.3、啟用NFS功能?

4.1.4、檢查NFS是否正常

4.1.5、在windows掛載HDFS文件系統(tǒng)


前言

Hadoop Distributed File System (HDFS) 是一個分布式文件系統(tǒng),用于存儲和處理大規(guī)模數(shù)據(jù)集。HDFS具有高可擴(kuò)展性、高容錯性和高吞吐量的特點,是Apache Hadoop框架的核心組件之一。

HDFS提供了一個命令行界面(Shell),用于管理和操作文件系統(tǒng)中的文件和目錄。使用HDFS的Shell,用戶可以執(zhí)行各種文件系統(tǒng)操作,如創(chuàng)建目錄、上傳文件、下載文件、刪除文件等。

HDFS的Shell操作類似于Linux的命令行操作,用戶可以使用一系列命令來完成各種操作。Shell命令包括一些基本的文件系統(tǒng)操作命令,如ls(列出文件和目錄)、mkdir(創(chuàng)建目錄)、put(上傳文件)、get(下載文件)、rm(刪除文件)等。此外,HDFS的Shell還提供了一些其他有用的命令,如chown(修改文件所有者)、chgrp(修改文件所屬組)、chmod(修改文件權(quán)限)等。

用戶可以通過在終端中輸入hdfs命令來啟動HDFS的Shell。在Shell中,用戶可以使用上述命令來管理和操作HDFS文件系統(tǒng)中的文件和目錄。通過簡單的命令,用戶可以輕松地完成HDFS文件系統(tǒng)的常見操作。

HDFS的Shell操作簡單方便,適用于對文件進(jìn)行基本的管理和操作。對于更復(fù)雜的操作,如數(shù)據(jù)分析和處理,用戶通常會使用其他工具,如Hadoop MapReduce或Spark等。但對于一些簡單的文件系統(tǒng)操作,HDFS的Shell是十分有用的。

一、HDFS集群啟停命令

1.一鍵啟停腳本可用

  • $HADOOP_HOME/sbin/strat-dfs.sh
  • $HADOOP_HOME/sbin/stop.sh

由于在前置設(shè)置中已經(jīng)配置好了環(huán)境,所以只需要執(zhí)行紅色代碼即可。

2.獨立進(jìn)程啟??捎?/h3>
  • $HADOOP_HOME/sbin/hadoop-deamon.sh
  • $HADOOP_HOME/sbin/hdfs? --daemon【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

?二、文件系統(tǒng)操作命令

關(guān)于HDFS文件系統(tǒng)的操作命令,Hadoop提供了2套命令體系

  • hadoop命令(老版本用法),用法:hadoop? fs? [generic? options]
  • hdfs命令(新版本用法),用法:hdfs? dfs? [generic options]

1、創(chuàng)建文件夾

  • hadoop? fs? -mkdir? [-p]? <path> .......
  • hdfs? dfs??-mkdir? [-p]? <path>......

path為待創(chuàng)建的目錄

-p選項的行為與Linux mkdir -p一致,它會沿著路徑創(chuàng)建父目錄

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

2、查看指定目錄下內(nèi)容

  • hadoop? fs?-ls? [-h] [-R]? <path> .......
  • hdfs? dfs? -ls? [-h]? [-R]? <path>......

-h人性化顯示文件size

-R遞歸查看指定目錄及其子目錄

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

可以查看到我們之前所創(chuàng)建的文件夾。

3、上傳文件到HDFS指定目錄下?

  • hadoop? fs?-put? [-f] [-p]? <localsrc>??.......? <dst>
  • hdfs? dfs?-put? [-f] [-p]? <localsrc>??.......? <dst>

-f? 覆蓋目標(biāo)文件(已存在下)

-p? 保留訪問和修改時間,所有權(quán)和權(quán)限

localsrc? 本地文件系統(tǒng)(客戶端所在機(jī)器)

dst? 目標(biāo)文件系統(tǒng)(HDFS)

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

4、查看HDFS文件內(nèi)容

讀取指定文件全部內(nèi)容,顯示在標(biāo)準(zhǔn)輸出控制臺。

  • hadoop? fs? -cat? <src>? .......
  • hdfs? dfs? -cat? <src>? .......

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

讀取大文件可以使用管道符配合more

  • hadoop? fs? -cat? <src>? |? more
  • hdfs? dfs? -cat? <src>? |? more

5、下載HDFS文件

下載文件到本地文件系統(tǒng)指定目錄,localdst必須是目錄

  • hadoop? fs? -get? [-f]? [-p]? <src>? .......? <localdst>
  • hdfs? dfs? -get? [-f]? [-p]? <src>? .......? <localdst>

-f? 覆蓋目標(biāo)文件(已存在下)

-p? 保留訪問和修改時間,所有權(quán)和權(quán)限

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

6、拷貝HDFS文件

  • hadoop? fs? -cp? [-f]? <src>? .......? <dst>
  • hdfs? dfs? -cp? [-f]? <src>? .......? <dst>

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

將文件test.txt復(fù)制到/home目錄下。

7、追加數(shù)據(jù)到HDFS文件中

  • hadoop? fs? -appendToFile? <localsrc>? .......? <dst>
  • hdfs? dfs? -appendToFile? <localsrc>? .......? <dst>

將所有給定本地文件的內(nèi)容追加到給定dst文件。

dst如果文件不存在,將創(chuàng)建該文件。

如果<localSrc>為-,則輸入為從標(biāo)準(zhǔn)輸入中讀取。

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

8、HDFS數(shù)據(jù)移動操作

  • hadoop? fs? -mv? <src>? .......? <dst>
  • hdfs? dfs? -mv? <src>? .......? <dst>

移動文件到指定文件夾下

可以使用該命令移動數(shù)據(jù),重命名文件的名稱。

9、HDFS數(shù)據(jù)刪除

  • hadoop? fs? -rm? -r? [-skipTrash]? URI? [URI? ......]
  • hdfs? dfs? -rm? -r? [-skipTrash]? URI? [URI? ......]

刪除指定路徑的文件或文件夾

-skipTrash? 跳過回收站,直接刪除。

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

<property>
  <name>fs.trash.interval</name>
  <value>1440</value>
</property>
<property>
  <name>fs.trash.checkpoint.interval</name>
  <value>120</value>
</property>

!? HDFS WEB瀏覽

除了使用命令操作HDFS文件系統(tǒng)外,在HDFS的WEB UI 上也可以查看到HDFS系統(tǒng)的內(nèi)容。

http://node1:9870

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

使用WEB瀏覽操作文件系統(tǒng),一般會遇到權(quán)限問題

這是因為WEB瀏覽器中是以用戶(dr,who)登錄的,其只有只讀權(quán)限,多數(shù)操作是做不了的。如果需要以特權(quán)用戶在瀏覽器中進(jìn)行操作,需要配置core-site.xml并重啟集群,但是,不推薦這樣做。

補(bǔ)充:修改權(quán)限

在HDFS中,可以使用和Linux一樣的授權(quán)語句,即chown和chmod

  • 修改所屬用戶和組:

root:用戶? ? ? ? ? ? ? ? supergroup:組

hadoop? fs? -chown? [-R]? root:supergroup? /xxx.txt

hdfs? dfs? -chown? [-R]? root:root? /xxx.txt

  • 修改權(quán)限:

hadoop? fs? -chown? [-R]? 777? /xxx.txt

hdfs? dfs? -chown? [-R]? 777? /xxx.txt

三、HDFS客戶端 - jetbrians產(chǎn)品插件

1.Big Data Tools插件

在jetbrains的產(chǎn)品中,均可以安裝插件,其中:Big Data Tools插件可以幫助我們方便的操作HDFS,比如:

  • Intellij IDEA(java IDE)
  • pyCharm(Python IDE)
  • DataGrip(SQL IDE)

均可以支持Bigdata Tools插件

設(shè)置-> plugins(插件)-> Marketplace(市場),搜索Big Data Tools

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

2、配置Windows

需要對Windows系統(tǒng)做一些基礎(chǔ)設(shè)置,配合插件使用

  • 解壓Hadoop安裝包到Windows系統(tǒng),如解壓到:D:\hadoop-3.0.0
  • 設(shè)置$HADOOP-HOME環(huán)境變量指向:D:\hadoop-3.0.0
  • 下載
    • hadoop.dll(https://github.com/steveloughran/winutils/blob/master/hadoop-3.0.0/bin/hadoop.dll)
    • winutils.exe(https://github.com/steveloughran/winutils/blob/master/hadoop-3.0.0/bin/winutils.exe)
  • 將hadoop.dll和winutils.exe放入$HADOOP_HOME/bin中

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

?【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

3、配置Big Data Tools插件

打開插件

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

點擊??,連接成功,如果hdfs里沒有文件會在連接的時候一直轉(zhuǎn)圈圈,可以先在hdfs里創(chuàng)建一個文件。

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

可以從磁盤上傳文件到hdfs

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

如果上述方法連接不成功,可以使用以下方法。

需要在虛擬機(jī)上打包配置好的Hadoop配置文件,將Windows中hadoop配置環(huán)境中的/etc目錄下全部換成打包好的文件。

 cd /export/server/hadoop/etc/hadoop
 tar -zcvf etc.tar.gz *
 sz etc.tar.gz

?【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

?此方法就是去找到配置好了的core-site.xml文件,將主機(jī)ip修改為要連接的ip即可,因為在前置配置中已經(jīng)在hosts文件上,配置好了主機(jī)映射,所以此處用node1代替。

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

四、HDFS客戶端 - NFS

4.1使用NFS網(wǎng)關(guān)功能將HDFS掛載到本地系統(tǒng)

4.1.1、HDFS NFS Gateway

HDFS提供了基于NFS(Network File System)的插件,可以對外提供NFS網(wǎng)關(guān),供其他系統(tǒng)掛載使用。NFS網(wǎng)關(guān)支持NFSv3,并允許將HDFS作為客戶機(jī)本地文件的一部分掛載,現(xiàn)在支持:

  • 上傳、下載、刪除、追加內(nèi)容。

4.1.2、配置NFS

配置HDFS需要配置如下內(nèi)容:

  • core-site.xml,新增配置項以及hdfs-site.xml,新增配置項
  • 開啟portmap、nfs3兩個新進(jìn)程

node1進(jìn)行如下操作:在/export/server/hadoop/etc/hadoop/下

1.在core-site.xml內(nèi)新增如下兩項
  <property>
    <name>hadoop.proxyuser.hadoop.groups</name>
    <value>*</value>
  </property>
  <property>
    <name>hadoop.proxyuser.hadoop.hosts</name>
    <value>*</value>
  </property>
  • 項目:hadoop.proxyuser.hadoop.groups? ? ? ? 值:*

允許hadoop用戶代理任何其他用戶組

  • 項目:hadoop.proxyuser.hadoop.hosts? ? ? ? 值:*

允許代理任何服務(wù)器的請求

2、在hdfs-site.xml中新增如下項
  <property>
    <name>nfs.superuser</name>
    <value>hadoop</value>
  </property>
  <property>
    <name>nfs.dump.dir</name>
    <value>/tmp/.hdfs-nfs</value>
  </property>
  <property>
    <name>nfs.exports.allowed.hosts</name>
    <value>192.168.88.1 rw</value>
  </property>
  • nfs.suerpser:NFS操作HDFS系統(tǒng),所使用的超級用戶(hdfs的啟動用戶為超級用戶)
  • nfs.dump.dir:NFS接收數(shù)據(jù)上傳時使用的臨時目錄
  • nfs.export.allowed.hosts:NFS允許連接的客戶端IP和權(quán)限,rw表示只讀,IP整體或部分可以以*代替。

4.1.3、啟用NFS功能?

1、將配置好將配置好的core-site.xml和hdfs-site.xml分發(fā)到node2和node3.

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

2、重啟Hadoop HDFS集群(先stop-dfs.sh,后start-dfs.sh)

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

3、停止系統(tǒng)的NFS相關(guān)進(jìn)程,(必須以root執(zhí)行):
a).systemctlstop nfs;? ? systemctldisable nfs? ?關(guān)閉系統(tǒng)nfs并關(guān)閉其開機(jī)自啟

b).yum remove-yrpcbind 卸載系統(tǒng)自帶rpcbind(因為要使用hdfs自帶的rpcbind功能)

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

4、啟動portmap(HDFS自帶的rpcbind功能)(必須以root執(zhí)行):

hdfs --daemon start portmap

?【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

5、啟動nfs(HDFS自帶的nfs功能)(必須以hadoop用戶執(zhí)行):

hdfs--daemon start nfs3

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

4.1.4、檢查NFS是否正常

以下操作在node2或node3執(zhí)行(因為node1卸載了rpcbind,缺少了必要的2個命令)

  • 執(zhí)行:rpcinfo?-p node1,正常輸出如下:有mountd和nfs出現(xiàn)

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

  • 執(zhí)行:showmount -e node1,可以看到 /192.168.88.1

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

4.1.5、在windows掛載HDFS文件系統(tǒng)

1、開啟Windows的NFS功能

此功能需要專業(yè)版,如果是家庭版windows需要升級為專業(yè)版

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

2、在Windows命令提示符(CMD)內(nèi)輸入:net use X:\\192.168.88.101\!

3、完成后即可在文件管理器中看到盤符為X的網(wǎng)絡(luò)位置

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)

4、點擊右鍵客戶斷開連接

【Hadoop】-HDFS的Shell操作[3],hadoop,hadoop,hdfs,大數(shù)據(jù)文章來源地址http://www.zghlxwxcb.cn/news/detail-858304.html

到了這里,關(guān)于【Hadoop】-HDFS的Shell操作[3]的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Hadoop的安裝和使用,Windows使用shell命令簡單操作HDFS

    Hadoop的安裝和使用,Windows使用shell命令簡單操作HDFS

    目錄 1,Hadoop簡介 2,分布式文件系統(tǒng)HDFS 1. HDFS簡介 2.HDFS體系結(jié)構(gòu) 3,Hadoop的安裝 1.使用WEB管理頁面操作HDFS 2.使用命令操作HDFS ?4,HDFS的基本使用方法 1)啟動hadoop,為當(dāng)前登錄的Windows用戶在HDFS中創(chuàng)建用戶目錄 2)在用戶名user/zhangna下創(chuàng)建test目錄 3)將windows操作系統(tǒng)本地的一個

    2024年02月04日
    瀏覽(27)
  • Hadoop大數(shù)據(jù)技術(shù)-通過shell命令訪問HDFS

    Hadoop大數(shù)據(jù)技術(shù)-通過shell命令訪問HDFS

    HDFS shell大致可以分為操作命令、管理命令、其他命令三類。 注意:當(dāng)命令以“$”開頭時,當(dāng)前用戶為普通用戶;以“#”開頭時,當(dāng)前用戶為root用戶。 操作命令是以“ hdfs dfs ”開頭的命令,用戶可以通過執(zhí)行這些命令,完成對文件的查找、上傳、刪除等操作。 [-p]:表示如

    2023年04月11日
    瀏覽(28)
  • 大數(shù)據(jù)技術(shù)之Hadoop:使用命令操作HDFS(四)

    大數(shù)據(jù)技術(shù)之Hadoop:使用命令操作HDFS(四)

    目錄 一、創(chuàng)建文件夾 二、查看指定目錄下的內(nèi)容 三、上傳文件到HDFS指定目錄下 四、查看HDFS文件內(nèi)容 五、下載HDFS文件 六、拷貝HDFS文件 七、HDFS數(shù)據(jù)移動操作 八、HDFS數(shù)據(jù)刪除操作 九、HDFS的其他命令 十、hdfs web查看目錄 十一、HDFS客戶端工具 11.1 下載插件 11.2 本地安裝Had

    2024年02月09日
    瀏覽(18)
  • hadoop基礎(chǔ):通過 Shell 命令訪問 HDFS

    hadoop基礎(chǔ):通過 Shell 命令訪問 HDFS

    HDFS Shell 是由一系列類似 Linux Shell 的命令組成的。命令大致可分為 操作命令 、 管理命令 、 其他命令 三類 操作命令是以“ hdfs dfs ”開頭的命令。通過這些命令,用戶可以完成 HDFS 文件的 復(fù)制、刪除和查找 等操作,Shell 命令的一般格式如下。 hdfs dfs [通用選項] 其中,hdfs

    2023年04月08日
    瀏覽(28)
  • 【Hadoop-HDFS】HDFS常用操作命令

    hadoop fs -ls / 普通創(chuàng)建: hadoop fs -mkdir /xiaolin 遞歸創(chuàng)建: hadoop fs -mkdir -p /xiaolin/xiaoyin mkdir xuan.txt hadoop fs -moveFromLocal xuan.txt /xiaolin hadoop fs -copyFromLocal xuan.txt / hadoop fs -put xuan.txt / 文件名稱相同時覆蓋hdfs上的文件: -f hadoop fs -put -f xuan.txt / hadoop fs -copyToLocal /xiaolin ./ hadoop fs -get

    2024年02月05日
    瀏覽(20)
  • Hadoop -HDFS常用操作指令

    path 指定目錄路徑 -h 人性化顯示文件size -R 遞歸查看指定目錄及其子目錄 -f 覆蓋目標(biāo)文件(已存在下) -p 保留訪問和修改時間,所有權(quán)和權(quán)限。 localsrc 本地文件系統(tǒng)(客戶端所在機(jī)器 ) dst 目標(biāo)文件系統(tǒng)(HDFS) 下載文件到本地文件系統(tǒng)指定目錄,localdst必須是目錄 -f 覆蓋目

    2024年02月10日
    瀏覽(42)
  • Hadoop HDFS的API操作

    Hadoop HDFS的API操作

    hadoop的 Windows依賴文件夾,拷貝hadoop-3.1.0到非中文路徑(比如d:)。 配置HADOOP_HOME環(huán)境變量 配置Path環(huán)境變量。 不能放在包含有空格的目錄下,cmd 輸入hadoop顯示此時不應(yīng)有 hadoop-3.0.0bin。我放在E:Program Files (x86) hadoop-3.0.0bin中,就出現(xiàn)錯誤 驗證Hadoop環(huán)境變量是否正常。雙擊

    2024年02月05日
    瀏覽(17)
  • 【Hadoop】HDFS API 操作大全

    【Hadoop】HDFS API 操作大全

    ?? 個人主頁——??開著拖拉機(jī)回家_Linux,大數(shù)據(jù)運維-CSDN博客 ????? ???? 希望本文能夠給您帶來一定的幫助??文章粗淺,敬請批評指正!???? ???????????????? ?????????????? ???????????????????????? ?????? ???????? 感謝點贊和關(guān)注 ,

    2024年02月07日
    瀏覽(20)
  • 【hadoop】Java API連接(操作)HDFS

    【hadoop】Java API連接(操作)HDFS

    直接運行下面的代碼,會出現(xiàn)權(quán)限不夠的問題 錯誤: org.apache.hadoop.security.AccessControlException: Permission denied: user=lenovo, access=WRITE, inode=“/folder1”:root:supergroup:drwxr-xr-x 下面使用四種方式來解決權(quán)限不夠的問題。 環(huán)境變量 :HADOOP_USER_NAME 根據(jù)下面的步驟使用Java的-D參數(shù) 在linux上,

    2024年02月16日
    瀏覽(19)
  • Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版)

    Hadoop系統(tǒng)應(yīng)用之HDFS相關(guān)操作 - - Java-API對HDFS的操作(IDEA版)

    通過Java API來操作HDFS文件系統(tǒng)HDFS,相關(guān)的操作有:文件上傳、文件下載、新建文件夾、查看文件、刪除文件。 1.Linux下安裝好hadoop,這里使用hadoop2.7.3 2.window解壓hadoop2.7.3的包 2.Windows下安裝好jdk1.8 ?3.Windows下安裝好IDEA,這里使用IDEA2022 4.Windows下安裝好maven,這里使用Maven3.6.3

    2024年02月05日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包