国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作

這篇具有很好參考價值的文章主要介紹了黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

https://www.bilibili.com/video/BV1WY4y197g7?p=26
切換到hadoop用戶

su - hadoop

進程啟停管理

一鍵啟停腳本

Hadoop HDFS組件內(nèi)置了HDFS集群的一鍵啟停腳本。

  • $HADOOP_HOME/sbin/start-dfs.sh,一鍵啟動HDFS集群
    執(zhí)行原理:
    • 在執(zhí)行此腳本的機器上,啟動SecondaryNameNode
    • 讀取core-site.xml內(nèi)容(fs.defaultFS項),確認NameNode所在機器,啟動NameNode
    • 讀取workers內(nèi)容,確認DataNode所在機器,啟動全部DataNode
start-dfs.sh
  • $HADOOP_HOME/sbin/stop-dfs.sh,一鍵關(guān)閉HDFS集群
    執(zhí)行原理:
    • 在執(zhí)行此腳本的機器上,關(guān)閉SecondaryNameNode
    • 讀取core-site.xml內(nèi)容(fs.defaultFS項),確認NameNode所在機器,關(guān)閉NameNode
    • 讀取workers內(nèi)容,確認DataNode所在機器,關(guān)閉全部NameNode
stop-dfs.sh

單進程啟停

除了一鍵啟停外,也可以單獨控制進程的啟停。

  • $HADOOP_HOME/sbin/hadoop-daemon.sh,此腳本可以單獨控制所在機器的進程的啟停
    用法:
    hadoop-daemon.sh (start|status|stop) (namenode|secondarynamenode|datanode)

start啟動、status狀態(tài)、stop停止

hadoop-daemon.sh start namenode
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start datanode
hadoop-daemon.sh status namenode
hadoop-daemon.sh status secondarynamenode
hadoop-daemon.sh status datanode
hadoop-daemon.sh stop namenode
hadoop-daemon.sh stop secondarynamenode
hadoop-daemon.sh stop datanode
  • $HADOOP_HOME/bin/hdfs,此程序也可以用以單獨控制所在機器的進程的啟停
    用法:
    hdfs --daemon (start|status|stop) (namenode|secondarynamenode|datanode)
hdfs --daemon start namenode
hdfs --daemon start secondarynamenode
hdfs --daemon start datanode
hdfs --daemon status namenode
hdfs --daemon status secondarynamenode
hdfs --daemon status datanode
hdfs --daemon stop namenode
hdfs --daemon stop secondarynamenode
hdfs --daemon stop datanode

文件系統(tǒng)操作命令

HDFS文件系統(tǒng)基本信息

  • 如何區(qū)分呢?
    Linux:file:///
    HDFS:hdfs://namenode:port/
  • 如上路徑:
    Linux:file:///usr/local/hello.txt
    HDFS:hdfs://node1:8020/usr/local/hello.txt

協(xié)議頭file:/// 或 hdfs://node1:8020/可以省略
需要提供Linux路徑的參數(shù),會自動識別為file://
需要提供HDFS路徑的參數(shù),會自動識別為hdfs://
除非你明確需要寫或不寫會有BUG,否則一般不用寫協(xié)議頭

介紹

關(guān)于HDFS文件系統(tǒng)的操作命令,Hadoop提供了2套命令體系
hadoop命令(老版本用法),用法:hadoop fs [generic options]

hadoop fs

hdfs命令(新版本用法),用法:hdfs dfs [generic options]

hdfs dfs

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

創(chuàng)建文件夾

用法:

hadoop fs -mkdir [-p] <path> ...
hdfs dfs -mkdir [-p] <path> ...

path 為待創(chuàng)建的目錄
-p選項的行為與Linux mkdir -p一致,它會沿著路徑創(chuàng)建父目錄。

先啟動Hadoop集群

start-dfs.sh

創(chuàng)建Linux系統(tǒng)的文件

hadoop fs -mkdir -p file:///home/hadoop/test1
ls

創(chuàng)建HDFS文件系統(tǒng)的文件

hadoop fs -mkdir -p hdfs://node1:8020/test/test2

不寫協(xié)議頭自動識別為需要創(chuàng)建的是HDFS文件系統(tǒng)的文件

hadoop fs -mkdir -p /hello/world/test3

查看指定目錄下內(nèi)容

用法:

hadoop fs -ls [-h] [-R] [<path> ...] 
hdfs dfs -ls [-h] [-R] [<path> ...] 	

path 指定目錄路徑
-h 人性化顯示文件size
-R 遞歸查看指定目錄及其子目錄

hadoop fs -ls /
hadoop fs -ls /hello
hadoop fs -ls /hello/world
hadoop fs -ls /test
hadoop fs -ls -R /

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

上傳文件到HDFS指定目錄

hadoop fs -put [-f] [-p] <localsrc> ... <dst>
hdfs dfs -put [-f] [-p] <localsrc> ... <dst>

-f 覆蓋目標文件(已存在下)
-p 保留訪問和修改時間,所有權(quán)和權(quán)限。
localsrc 本地文件系統(tǒng)(客戶端所在機器)
dst 目標文件系統(tǒng)(HDFS)

hadoop fs -put file:///home/hadoop/test.txt hdfs://node1:8020/
hadoop fs -put ./test2.txt /

協(xié)議頭可寫可不寫,會自動識別。

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

查看HDFS文件內(nèi)容

用法:

hadoop fs -cat <src> ... 
hdfs dfs -cat <src> ...

讀取指定文件全部內(nèi)容,顯示在標準輸出控制臺。

hadoop fs -cat /test.txt

讀取大文件可以使用管道符配合more

hadoop fs -cat <src> | more
hdfs dfs -cat <src> | more

把test2.txt的內(nèi)容追加到test.txt,多執(zhí)行幾次,test.txt文件變得很大。

cat test2.txt >> test.txt

覆蓋原文件上傳

hadoop fs -put -f ./test.txt /

翻頁查看,按空格鍵查看下一頁

hadoop fs -cat /test.txt | more

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

下載HDFS文件

hadoop fs -get [-f] [-p] <src> ... <localdst>
hdfs dfs -get [-f] [-p] <src> ... <localdst>

下載文件到本地文件系統(tǒng)指定目錄,localdst必須是目錄
-f 覆蓋目標文件(已存在下)
-p 保留訪問和修改時間,所有權(quán)和權(quán)限。

hadoop fs -get /test2.txt .

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

拷貝HDFS文件

hadoop fs -cp [-f] <src> ... <dst> 
hdfs dfs -cp [-f] <src> ... <dst>

-f 覆蓋目標文件(已存在下)

兩個路徑都是HDFS文件系統(tǒng)的

hadoop fs -cp /test2.txt /hello/

復(fù)制過去,同時改名

hadoop fs -cp /test2.txt /hello/a.txt

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

追加數(shù)據(jù)到HDFS文件

hadoop fs -appendToFile <localsrc> ... <dst>
hdfs dfs -appendToFile <localsrc> ... <dst>

將所有給定本地文件的內(nèi)容追加到給定dst文件。
dst如果文件不存在,將創(chuàng)建該文件。
如果為-,則輸入為從標準輸入中讀取。

hadoop fs -appendToFile append.txt /test2.txt

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記
報錯了,修改配置文件。

cd /export/server/hadoop/etc/hadoop
vim hdfs-site.xml

添加以下內(nèi)容

<property>
        <name>dfs.support.append</name>
        <value>true</value>
</property>

<property>
        <name>dfs.client.block.write.replace-datanode-on-failure.policy</name>
        <value>NEVER</value>
</property>
<property>
        <name>dfs.client.block.write.replace-datanode-on-failure.enable</name>
        <value>true</value>
</property>

再次執(zhí)行命令

hadoop fs -appendToFile append.txt /test2.txt
hadoop fs -cat /test2.txt

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

HDFS數(shù)據(jù)移動

hadoop fs -mv <src> ... <dst>
hdfs dfs -mv <src> ... <dst>	

移動文件到指定文件夾下
可以使用該命令移動數(shù)據(jù),重命名文件的名稱

hadoop fs -mv /test.txt /test/

移動文件同時改名

hadoop fs -mv /test2.txt /test/a.txt

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

HDFS數(shù)據(jù)刪除

hadoop fs -rm -r [-skipTrash] URI [URI ...]
hdfs dfs -rm -r [-skipTrash] URI [URI ...]	

刪除指定路徑的文件或文件夾
-skipTrash 跳過回收站,直接刪除

hadoop fs -rm -r /hello

回收站功能默認關(guān)閉,如果要開啟需要在core-site.xml內(nèi)配置:

vim /export/server/hadoop/etc/hadoop/core-site.xml

添加內(nèi)容

<property>
	<name>fs.trash.interval</name>
	<value>1440</value>
</property>
 
<property>
	<name>fs.trash.checkpoint.interval</name>
	<value>120</value>
</property>

無需重啟集群,在哪個機器配置的,在哪個機器執(zhí)行命令就生效。
回收站默認位置在:/user/用戶名(hadoop)/.Trash
黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

其他命令

命令官方指導(dǎo)文檔
https://hadoop.apache.org/docs/r3.3.4/hadoop-project-dist/hadoop-common/FileSystemShell.html

HDFS WEB瀏覽

http://node1:9870/
除了使用命令操作HDFS文件系統(tǒng)外,在HDFS的WEB UI上也可以查看HDFS文件系統(tǒng)的內(nèi)容。
黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記

使用WEB瀏覽操作文件系統(tǒng),一般會遇到權(quán)限問題
黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記
這是因為WEB瀏覽器中是以匿名用戶(dr.who)登陸的,其只有只讀權(quán)限,多數(shù)操作是做不了的。
如果需要以特權(quán)用戶在瀏覽器中進行操作,需要配置如下內(nèi)容到core-site.xml并重啟集群。

但是,不推薦這樣做
HDFS WEBUI,只讀權(quán)限挺好的,簡單瀏覽即可。
如果給與高權(quán)限,會有很大的安全問題,造成數(shù)據(jù)泄露或丟失。

HDFS權(quán)限

修改權(quán)限

在HDFS中,可以使用和Linux一樣的授權(quán)語句,即:chown和chmod
修改所屬用戶和組:
hadoop fs -chown [-R] root:root /xxx.txt
hdfs dfs -chown [-R] root:root /xxx.txt
修改權(quán)限
hadoop fs -chmod [-R] 777 /xxx.txt
hdfs dfs -chmod [-R] 777 /xxx.txt

hadoop fs -chown root:supergroup /test.txt
hadoop fs -chmod 777 /test.txt

黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作,大數(shù)據(jù),大數(shù)據(jù),學(xué)習(xí),筆記文章來源地址http://www.zghlxwxcb.cn/news/detail-578943.html

到了這里,關(guān)于黑馬大數(shù)據(jù)學(xué)習(xí)筆記2-HDFS基本操作的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • HDFS的基本操作(創(chuàng)建目錄或文件、查看目錄或文件、上傳和拷貝文件到HDFS上、追加數(shù)據(jù)到HDFS上、從HDFS上下載文件到Linux本地、合并HDFS文件)

    主要涉及HDFS shell操作命令,包括創(chuàng)建目錄或文件、查看目錄或文件、上傳和拷貝文件到HDFS上、追加數(shù)據(jù)到HDFS上、從HDFS上下載文件到Linux本地、合并HDFS上多個文件并下載、刪除HDFS上的文件、查看各種命令的用法等。

    2024年02月08日
    瀏覽(22)
  • HDFS基本操作命令

    HDFS基本操作命令

    hdfs shell cli支持操作多種文件系統(tǒng),包括本地文件系統(tǒng)(file:///),分布式文件系統(tǒng)(hdfs:nn:8020)等 操作的是什么文件系統(tǒng)取決于URL種的前綴協(xié)議 如果沒有指定前綴,則將會讀取環(huán)境變量匯總的fs.defaultFS屬性,以該屬性作為默認文件系統(tǒng) hdfs dfs -ls file:/// #操作本地文件系統(tǒng) hdfs dfs

    2024年02月16日
    瀏覽(24)
  • Linux學(xué)習(xí)筆記——基本操作命令

    Linux學(xué)習(xí)筆記——基本操作命令

    ??Linux 操作系統(tǒng)的 Shell 作為操作系統(tǒng)的外殼,為用戶提供使用操作系統(tǒng)的接口。它是命令語言、命令解釋程序及程序設(shè)計語言系統(tǒng)。 ??Shell 是用戶和 Linux 內(nèi)核之間的接口程序,如果把 Linux 內(nèi)核想象成一個球體的中心,Shell 就是圍繞內(nèi)核的外層。當從 Shell 或其他程序向

    2024年03月12日
    瀏覽(31)
  • HDFS 基本 shell 操作

    HDFS 基本 shell 操作

    調(diào)用格式: 例如: 調(diào)用格式: 注意: 直接寫/是省略了文件系統(tǒng)的名稱hdfs://ip:port。 例如: 調(diào)用格式: 例如: 調(diào)用格式: 本地文件 hello1.txt 的內(nèi)容追加到 hdfs 文件 hello.txt 的后面操作如下: 原 hello.txt:hello world 原 hello1.txt:hello 追加的 hello.txt 中內(nèi)容如下 查看分布式文件系統(tǒng)的目錄

    2024年02月15日
    瀏覽(18)
  • 王道操作系統(tǒng)學(xué)習(xí)筆記(1)——操作系統(tǒng)基本概念

    王道操作系統(tǒng)學(xué)習(xí)筆記(1)——操作系統(tǒng)基本概念

    本文介紹了操作系統(tǒng)的基本概念,文章中的內(nèi)容來自B站王道考研操作系統(tǒng)課程,想要完整學(xué)習(xí)的可以到B站官方看完整版。 操作系統(tǒng):系統(tǒng)資源的管理者(處理機管理、存儲器管理、文件管理、設(shè)備管理) 交互式命令(在終端中輸命令)和批處理命令(Shell腳本) 并發(fā): 宏

    2024年02月10日
    瀏覽(25)
  • HDFS的架構(gòu)優(yōu)勢與基本操作

    HDFS的架構(gòu)優(yōu)勢與基本操作

    如今,數(shù)據(jù)正以指數(shù)級增長,各行各業(yè)都在追求更多的數(shù)據(jù)存儲、高效的數(shù)據(jù)處理和可靠的數(shù)據(jù)基礎(chǔ)來驅(qū)動業(yè)務(wù)的發(fā)展。Hadoop Distributed File System(HDFS)作為Hadoop生態(tài)系統(tǒng)的核心組件之一,成為構(gòu)建可靠的大數(shù)據(jù)基礎(chǔ)的不二選擇之一。本文將深入剖析HDFS的架構(gòu)與優(yōu)勢。 HDFS(

    2024年03月13日
    瀏覽(29)
  • Unity | HDRP高清渲染管線學(xué)習(xí)筆記:基本操作

    Unity | HDRP高清渲染管線學(xué)習(xí)筆記:基本操作

    目錄 一、場景整體環(huán)境光強度 1.HDRI Sky 2.Shadows 二、屏幕后處理效果(Post Processing) 1.Exposure 2.Post-processing/Tonemapping 三、抗鋸齒 四、添加光源 1.Light Explorer窗口 2.光照探針組 3.反射探針 4.烘焙光照貼圖 本文主要是了解HDRP基本操作: 如何為一個已經(jīng)擺放好模型的場景添加環(huán)境光等

    2024年02月16日
    瀏覽(21)
  • stata學(xué)習(xí)筆記(一)stata入門與基本操作

    stata學(xué)習(xí)筆記(一)stata入門與基本操作

    這里開個新坑,主題有關(guān)stata使用以及定量分析入門,主要內(nèi)容來自于之前與之后的課程學(xué)習(xí)、作業(yè)以及資料查詢整理,主要目的是對個人學(xué)習(xí)過程的一個記錄,方便日后回顧。 方法1:點擊文件選項,選擇導(dǎo)入,根據(jù)數(shù)據(jù)類型選擇即可; 方法2::點擊進入數(shù)據(jù)編輯器界面,點

    2024年02月21日
    瀏覽(26)
  • Hadoop原理與技術(shù)——hdfs命令行基本操作

    Hadoop原理與技術(shù)——hdfs命令行基本操作

    點擊鏈接查看文檔 一、實驗?zāi)康?熟悉hdfs命令行基本操作 二、實驗環(huán)境 Windows 10 VMware Workstation Pro虛擬機 Hadoop環(huán)境 Jdk1.8 三、實驗內(nèi)容 1:hdfs常見命令: (1)查看幫助:hdfs dfs -help (2)查看當前目錄信息:hdfs dfs -ls / (3)創(chuàng)建文件夾:hdfs dfs -mkdir /文件夾名 (4)上傳文件:

    2023年04月16日
    瀏覽(17)
  • 云計算與大數(shù)據(jù)實驗三 HDFS的基本操作

    云計算與大數(shù)據(jù)實驗三 HDFS的基本操作

    一、實驗?zāi)康?理解 HDFS 架構(gòu)和工作原理 掌握 HDFS 部署環(huán)境和步驟 掌握 HDFS( 集群的啟動 start-dfs.sh) 啟動 使用 Hadoop 命令 ( 文件的增 / 刪 / 改 / 查 / 上傳 / 下載 ) 來操作分布式文件系統(tǒng) 二、實驗內(nèi)容 HDFS 偽分布式環(huán)境搭建 HDFS( 集群的啟動 start-dfs.sh) 啟動 練習(xí) Hadoop 命令 ( 文件

    2024年02月04日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包