国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Hadoop入門學習筆記——二、在虛擬機里部署HDFS集群

這篇具有很好參考價值的文章主要介紹了Hadoop入門學習筆記——二、在虛擬機里部署HDFS集群。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

視頻課程地址:https://www.bilibili.com/video/BV1WY4y197g7
課程資料鏈接:https://pan.baidu.com/s/15KpnWeKpvExpKmOC8xjmtQ?pwd=5ay8

Hadoop入門學習筆記(匯總)

二、在虛擬機里部署HDFS集群

下載Hadoop:https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
本次演示部署結構如下圖所示:
Hadoop入門學習筆記——二、在虛擬機里部署HDFS集群,大數(shù)據(jù),學習筆記,hadoop,學習,筆記
本次部署服務清單如下表所示:

節(jié)點 部署的服務
node1 NameNode、DataNode、SecondaryNameNode
node2 DataNode
node3 DataNode

2.1. 部署node1虛擬機

1、將下載好的Hadoop壓縮包上傳至node1虛擬機的root目錄;
2、將Hadoop壓縮包解壓至/export/server目錄下

tar -zxvf hadoop-3.3.4.tar.gz -C /export/server/

3、創(chuàng)建hadoop目錄的軟鏈接

# 切換工作目錄
cd /export/server/
# 創(chuàng)建軟連接
ln -s /export/server/hadoop-3.3.4/ hadoop

4、hadoop目錄結構如下
Hadoop入門學習筆記——二、在虛擬機里部署HDFS集群,大數(shù)據(jù),學習筆記,hadoop,學習,筆記

目錄 存放內容
bin 存放Hadoop的各類程序(命令)
etc 存放Hadoop的配置文件
include 存放Hadopp用到的C語言的頭文件
lib 存放Linux系統(tǒng)的動態(tài)鏈接庫(.so文件)
libexec 存放配置Hadoop系統(tǒng)的腳本文件(.sh和.cmd文件)
licenses_binary 存放許可證文件
sbin 管理員程序(super bin)
share 存放二進制源碼(jar包)

5、配置workers文件

cd etc/hadoop/
vim workers

將workers文件原有的內容刪掉,改為

node1
node2
node3

保存即可;
6、配置hadoop-env.sh文件,使用vim hadoop-env.sh打開,修改以下配置:

# 指明JDK安裝目錄
export JAVA_HOME=/export/server/jdk
# 指明HADOOP安裝目錄
export HADOOP_HOME=/export/server/hadoop
# 指明HADOOP配置文件的目錄
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
#指明HADOOP運行日志文件的目錄
export HADOOP_LOG_DIR=$HADOOP_HOME/logs

7、配置core-site.xml文件,使用vim core-site.xml打開文件,修改以下配置:

<configuration>
  <property>
    <!--HDFS 文件系統(tǒng)的網(wǎng)絡通訊路徑-->
    <name>fs.defaultFS</name>
    <value>hdfs://node1:8020</value>
  </property>
  <property>
    <!--io 操作文件緩沖區(qū)大小-->
    <name>io.file.buffer.size</name>
    <value>131072</value>
  </property>
</configuration>

8、配置hdfs-site.xml文件,修改以下配置:

<configuration>
  <property>
  	<!--hdfs 文件系統(tǒng),默認創(chuàng)建的文件權限設置-->
    <name>dfs.datanode.data.dir.perm</name>
    <!-- 700權限即rwx------ -->
    <value>700</value>
  </property>
  <property>
  	<!--NameNode 元數(shù)據(jù)的存儲位置-->
    <name>dfs.namenode.name.dir</name>
    <!-- 在 node1 節(jié)點的 /data/nn 目錄下 -->
    <value>/data/nn</value>
  </property>
  <property>
    <!--NameNode 允許哪幾個節(jié)點的 DataNode 連接(即允許加入集群)-->
    <name>dfs.namenode.hosts</name>
    <value>node1,node2,node3</value>
  </property>
  <property>
    <!--hdfs 默認塊大小-->
    <name>dfs.blocksize</name>
    <!--268435456即256MB-->
    <value>268435456</value>
  </property>
  <property>
    <!--namenode 處理的并發(fā)線程數(shù)-->
    <name>dfs.namenode.handler.count</name>
    <value>100</value>
  </property>
  <property>
    <!--從節(jié)點 DataNode 的數(shù)據(jù)存儲目錄,即數(shù)據(jù)存放在node1、node2、node3三臺機器中的路徑-->
    <name>dfs.datanode.data.dir</name>
    <value>/data/dn</value>
  </property>
</configuration>

9、根據(jù)上一步的配置項,在node1節(jié)點創(chuàng)建/data/nn/data/dn目錄,在node2和node3節(jié)點創(chuàng)建/data/dn目錄;
10、將已配置好的hadoop程序從node1分發(fā)到node2和node3:

# 切換工作目錄
cd /export/server/
# 將node1的hadoop-3.3.4/目錄復制到node2的同樣的位置
scp -r hadoop-3.3.4/ node2:`pwd`/
# 將node1的hadoop-3.3.4/目錄復制到node3的同樣的位置
scp -r hadoop-3.3.4/ node3:`pwd`/

11、將Hadoop加入環(huán)境變量,使用vim /etc/profile打開環(huán)境變量文件,將以下內容添加在文件末尾:

export HADOOP_HOME=/export/server/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

執(zhí)行source /etc/profile命令使環(huán)境變量配置生效;
12、修改相關目錄的權限:

chown -R hadoop:hadoop /data
chown -R hadoop:hadoop /export/

2.2. 部署node2和node3虛擬機

本小節(jié)內容如無特殊說明,均需在node2和node3虛擬機分別執(zhí)行!

1、為hadoop創(chuàng)建軟鏈接,命令都是一樣的,如下所示:

cd /export/server/
ln -s /export/server/hadoop-3.3.4/ hadoop

2、將Hadoop加入環(huán)境變量,使用vim /etc/profile打開環(huán)境變量文件,將以下內容添加在文件末尾:

export HADOOP_HOME=/export/server/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

執(zhí)行source /etc/profile命令使環(huán)境變量配置生效;
3、修改相關目錄的權限:

chown -R hadoop:hadoop /data
chown -R hadoop:hadoop /export/

2.3. 初始化并啟動Hadoop集群(格式化文件系統(tǒng))

1、在node1虛擬機上執(zhí)行以下命令:

# 切換為hadoop用戶
su - hadoop
# 格式化namenode
hadoop namenode -format

2、啟動集群,在node1虛擬機上執(zhí)行以下命令:

# 一鍵啟動整個集群,包括namenode、secondarynamenode和所有的datanode
start-dfs.sh
# 查看當前系統(tǒng)中正在運行的Java進程,可以看到每臺虛擬機上hadoop的運行情況
jps

3、執(zhí)行上述步驟之后,我們可以在我們自己的電腦(非虛擬機)上查看 HDFS WEBUI(即HADOOP管理頁面),可以通過訪問namenode所在服務器的9870端口查看,在本案例中因為namenode處于node1虛擬機上,所以可以訪問http://node1:9870/打開。PS:因為之前我們已經(jīng)配置了本機的hosts文件,所以這里可以使用node1訪問,其實這個地址對應的就是http://192.168.88.101:9870/。
4、如果看到以下界面,代表Hadoop集群啟動成功了。
Hadoop入門學習筆記——二、在虛擬機里部署HDFS集群,大數(shù)據(jù),學習筆記,hadoop,學習,筆記

2.4. 快照部署好的集群

為了保存剛部署好的集群,在后續(xù)如果出現(xiàn)無法解決的問題,不至于重新部署一遍,使用虛擬機快照的方式進行備份。
1、一鍵關閉集群,在node1虛擬機執(zhí)行以下命令:

# 切換為hadoop用戶
su - hadoop
# 一鍵關閉整個集群
stop-dfs.sh

關閉完成后,可以在node1、node2、node3虛擬機中使用jps命令查看相應Java進程是否已消失。
2、關閉三臺虛擬機;
3、在VMware中,分別在三臺虛擬機上右鍵,“快照”-“拍攝快照”功能創(chuàng)建快照。

2.5. 部署過程中可能會遇到的問題

  1. 在以Hadoop用戶身份執(zhí)行start-dfs.sh命令時,提示Permission denied。此時需要檢查三臺虛擬機上相關路徑(/data、/export/server及其子路徑)上hadoop用戶是否具有讀、寫、執(zhí)行的權限。
  2. 在執(zhí)行start-dfs.sh命令后,使用jps命令可以查看已啟動的服務,若發(fā)現(xiàn)有服務未啟動成功的,可以查看/export/server/hadoop/logs目錄下的日志文件,若在日志文件中看到類似于無權限、不可訪問等報錯信息,同樣需要檢查對應機器的相關路徑權限。
  3. 執(zhí)行hadoop namenode -format、start-dfs.sh、stop-dfs.sh等Hadoop相關命令時,若提示command not found,則代表著環(huán)境變量沒配置好,需要檢查三臺機器的/etc/profile文件的內容(需要使用source命令使環(huán)境變量生效)以及hadoop的軟連接是否正確。
  4. 執(zhí)行start-dfs.sh命令后,node1的相關進程啟動成功,但node2和node3沒有啟動的,需要檢查workers文件的配置是否有node2和node3。
  5. 若在日志文件中看到WstxEOFExceptionUnexpected EOF等信息,大概率是xml配置文件有問題,需要仔細檢查core-site.xml和hdfs-site.xml文件里面的內容(少了某個字母或字符、寫錯了某個字母或字符),尤其是符號。
    綜上,常見出錯點總結為:
  • 權限未正確配置;
  • 配置文件錯誤;
  • 未格式化

2.5. Hadoop HDFS集群啟停腳本

注意:在使用以下命令前,一定要確保當前是hadoop用戶,否則將報錯或沒有效果!??!

  1. Hadoop HDFS 組件內置了HDFS集群的一鍵啟停腳本。

    • $HADOOP_HOME/sbin/start-dfs.sh,一鍵啟動HDFS集群
      執(zhí)行流程:

      • 在執(zhí)行此腳本的機器上,啟動SecondaryNameNode;
      • 讀取core-site.xml內容(fs.defaultFS項),確定NameNode所在機器,啟動NameNode;
      • 讀取workers內容,確定DataNode所在機器,啟動全部DataNode。
    • $HADOOP_HOME/sbin/stop-dfs.sh,一鍵關閉HDFS集群
      執(zhí)行流程:

      • 在執(zhí)行此腳本的機器上,關閉SecondaryNameNode;
      • 讀取core-site.xml內容(fs.defaultFS項),確定NameNode所在機器,關閉NameNode;
      • 讀取workers內容,確認DataNode所在機器,關閉全部NameNode。
  2. 除了一鍵啟停外,也可以單獨控制某個進程的啟停。

    • $HADOOP_HOME/sbin/hadoop-daemon.sh,此腳本可以單獨控制所在機器的進程啟停
      用法:hadoop-daemon.sh (start|status|stop) (namenode|secondarynamenode|datanode)

    • $HADOOP_HOME/sbin/hdfs,此程序也可以單獨控制所在機器的進程啟停
      用法:hdfs --daemon (start|status|stop) (namenode|secondarynamenode|datanode)文章來源地址http://www.zghlxwxcb.cn/news/detail-790941.html

到了這里,關于Hadoop入門學習筆記——二、在虛擬機里部署HDFS集群的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 部署HDFS集群(完全分布式模式、hadoop用戶控制集群、hadoop-3.3.4+安裝包)

    部署HDFS集群(完全分布式模式、hadoop用戶控制集群、hadoop-3.3.4+安裝包)

    目錄 前置 一、上傳解壓 (一 )上傳 (二)解壓 二、修改配置文件 (一)配置workers文件 (二)配置hadoop-env.sh文件 (三)配置core-site.xml文件 (四)配置hdfs-site.xml文件 三、分發(fā)到hp2、hp3, 并設置環(huán)境變量 (一)準備數(shù)據(jù)目錄? ? (二)配置環(huán)境變量 四、創(chuàng)建數(shù)據(jù)目錄,并

    2024年04月14日
    瀏覽(28)
  • 虛擬機集群部署hadoop

    虛擬機集群部署hadoop

    以三臺虛擬機為例,配置如下: 1.臺虛擬機:內存2G,處理2 硬盤50G ,如圖 (電腦配置參考:8核16線程+32運行內存) 2.修改克隆虛擬機的靜態(tài)IP root下執(zhí)行 更改 DEVICE= e ns33 TYPE=Ethernet ONBOOT= yes BOOTPROTO= static NAME=\\\"ens33\\\" PREFIX=24 IPADDR=192.168.1.102 (要修改的 ip ) GATEWAY=192.168.1.2 DNS1

    2024年02月19日
    瀏覽(25)
  • 【黑馬2023大數(shù)據(jù)實戰(zhàn)教程】VMWare虛擬機部署HDFS集群詳細過程

    【黑馬2023大數(shù)據(jù)實戰(zhàn)教程】VMWare虛擬機部署HDFS集群詳細過程

    視頻:黑馬2023 VMWare虛擬機部署HDFS集群 注意!這些操作的前提是完成了前置準備中的服務器創(chuàng)建、固定IP、防火墻關閉、Hadoop用戶創(chuàng)建、SSH免密、JDK部署等操作!!! 操作在這里 大數(shù)據(jù)集群環(huán)境準備過程記錄(3臺虛擬機) 1.上傳Hadoop安裝包到node1節(jié)點中 rz -bey 2.解壓縮安裝包到

    2023年04月27日
    瀏覽(25)
  • 大數(shù)據(jù):Hadoop HDFS,基礎架構,去中心化,中心化模式,HDFS基礎架構,虛擬機和云服務器部署HDFS

    大數(shù)據(jù):Hadoop HDFS,基礎架構,去中心化,中心化模式,HDFS基礎架構,虛擬機和云服務器部署HDFS

    2022找工作是學歷、能力和運氣的超強結合體,遇到寒冬,大廠不招人,可能很多算法學生都得去找開發(fā),測開 測開的話,你就得學數(shù)據(jù)庫,sql,oracle,尤其sql要學,當然,像很多金融企業(yè)、安全機構啥的,他們必須要用oracle數(shù)據(jù)庫 這oracle比sql安全,強大多了,所以你需要學

    2024年02月17日
    瀏覽(102)
  • Hadoop學習筆記之HDFS

    Hadoop學習筆記之HDFS

    分布式存儲系統(tǒng) 支持海量數(shù)據(jù)的存儲,成百上千的計算機組成存儲集群,HDFS可以運行在低成本的硬件之上,具有的高容錯、高可靠性、高可擴展性、高吞吐率等特征,非常適合大規(guī)模數(shù)據(jù)集上的應用。 優(yōu)點 高容錯性 適合批處理 適合大數(shù)據(jù)處理 流式文件訪問 可構建在廉價

    2024年02月07日
    瀏覽(19)
  • Hadoop入門學習筆記——四、MapReduce的框架配置和YARN的部署

    Hadoop入門學習筆記——四、MapReduce的框架配置和YARN的部署

    視頻課程地址:https://www.bilibili.com/video/BV1WY4y197g7 課程資料鏈接:https://pan.baidu.com/s/15KpnWeKpvExpKmOC8xjmtQ?pwd=5ay8 Hadoop入門學習筆記(匯總) 本次YARN的部署結構如下圖所示: 當前,共有三臺服務器(虛擬機)構成集群,集群規(guī)劃如下所示: 主機 部署的服務 node1 ResourceManager、N

    2024年02月04日
    瀏覽(18)
  • hadoop生態(tài)圈-- 個人筆記學習05 HDFS優(yōu)化

    DFSClient和DN在一個節(jié)點 —— local reads,遠程閱讀 Remote reads。 處理方式是一樣的 DN讀數(shù)據(jù) 通過RPC(TCP協(xié)議)把數(shù)據(jù)給DFSClient。DN在中間會做中轉,處理簡單但是性能收影響 (Local read的情況下,會希望繞過DN直接讀取Data,這就是 短路 DFSClient自行打開文件讀取數(shù)據(jù),需要配置白名

    2024年02月13日
    瀏覽(60)
  • hadoop(學習筆記) 4----怎么把文件放到hdfs上?

    hadoop(學習筆記) 4----怎么把文件放到hdfs上?

    怎么把文件放到hdfs上? 首先就是需要將hdfs相關程序啟動起來----namenode和datanode namendoe-相當于目錄,不進行文件信息的存儲 datanode-真正數(shù)據(jù)存放的位置 但namenode的默認存放位置在tmp文件下,tmp又是臨時文件,隨時可能被系統(tǒng)清除,我們存放在hdfs上的數(shù)據(jù)并不安全,所以我們需要修改

    2024年02月04日
    瀏覽(18)
  • Linux多虛擬機集群化配置詳解(Zookeeper集群、Kafka集群、Hadoop集群、HBase集群、Spark集群、Flink集群、Zabbix、Grafana部署)

    Linux多虛擬機集群化配置詳解(Zookeeper集群、Kafka集群、Hadoop集群、HBase集群、Spark集群、Flink集群、Zabbix、Grafana部署)

    前面安裝的軟件,都是以單機模式運行的,學習大數(shù)據(jù)相關的軟件部署,后續(xù)安裝軟件服務,大多數(shù)都是以集群化(多臺服務器共同工作)模式運行的。所以,需要完成集群化環(huán)境的前置準備,包括創(chuàng)建多臺虛擬機,配置主機名映射,SSH免密登錄等等。 我們可以使用VMware提供

    2024年02月04日
    瀏覽(30)
  • 大數(shù)據(jù)學習02-Hadoop分布式集群部署

    大數(shù)據(jù)學習02-Hadoop分布式集群部署

    操作系統(tǒng):centos7 軟件環(huán)境:jdk8、hadoop-2.8.5 1.下載VMware,建議支持正版 2.安裝到Widows目錄下任意位置即可,安裝目錄自定義。打開VMware,界面如下: 3.創(chuàng)建虛擬機 創(chuàng)建虛擬機—選擇自定義 這一步按照默認的配置就好 選擇系統(tǒng),安裝程序光盤映像文件iso,這里需要下載cenos鏡像

    2024年02月16日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包