1. SSH 無(wú)密登錄配置
1.1 配置 ssh
(1)基本語(yǔ)法
ssh 另一臺(tái)電腦的IP地址
(2)ssh 連接時(shí)出現(xiàn) Host key verification failed 的解決方法
[atguigu@hadoop102 ~]$ ssh hadoop103
(3)回退到 hadoop102
[atguigu@hadoop103 ~]$ exit
1.2 無(wú)密鑰配置
(1)免密登錄原理
(2)生成公鑰和私鑰
[atguigu@hadoop102 .ssh]$ pwd
/home/atguigu/.ssh
[atguigu@hadoop102 .ssh]$ ssh-keygen -t rsa
然后敲(三個(gè)回車),就會(huì)生成兩個(gè)文件id_rsa(私鑰)、id_rsa.pub(公鑰)
(3)將公鑰拷貝到要免密登錄的目標(biāo)機(jī)器上
[atguigu@hadoop102 .ssh]$ ssh-copy-id hadoop102
[atguigu@hadoop102 .ssh]$ ssh-copy-id hadoop103
[atguigu@hadoop102 .ssh]$ ssh-copy-id hadoop104
注意:
還需要在hadoop103上采用atguigu賬號(hào)配置一下無(wú)密登錄到hadoop102、hadoop103、hadoop104服務(wù)器上。
還需要在hadoop104上采用atguigu賬號(hào)配置一下無(wú)密登錄到hadoop102、hadoop103、hadoop104服務(wù)器上。
還需要在hadoop102上采用root賬號(hào),配置一下無(wú)密登錄到hadoop102、hadoop103、hadoop104服務(wù)器上。
1.3 .ssh 文件夾下(~/.ssh)的文件功能解釋
known_hosts | 記錄ssh訪問(wèn)過(guò)計(jì)算機(jī)的公鑰(public key) |
---|---|
id_rsa | 生成的私鑰 |
id_rsa.pub | 生成的公鑰 |
authorized_keys | 存放授權(quán)過(guò)的無(wú)密登錄服務(wù)器公鑰 |
2. 集群配置
2.1 集群部署規(guī)劃
注意:
- NameNode和SecondaryNameNode不要安裝在同一臺(tái)服務(wù)器
- ResourceManager也很消耗內(nèi)存,不要和NameNode、SecondaryNameNode配置在同一臺(tái)機(jī)器上。
hadoop102 | hadoop103 | hadoop104 | |
---|---|---|---|
HDFS | NameNodeDataNode | DataNode | SecondaryNameNodeDataNode |
YARN | NodeManager | ResourceManagerNodeManager | NodeManager |
2.2 配置文件說(shuō)明
Hadoop配置文件分兩類:默認(rèn)配置文件和自定義配置文件,只有用戶想修改某一默認(rèn)配置值時(shí),才需要修改自定義配置文件,更改相應(yīng)屬性值。
(1)默認(rèn)配置文件:
要獲取的默認(rèn)文件 | 文件存放在Hadoop的jar包中的位置 |
---|---|
[core-default.xml] | hadoop-common-3.1.3.jar/core-default.xml |
[hdfs-default.xml] | hadoop-hdfs-3.1.3.jar/hdfs-default.xml |
[yarn-default.xml] | hadoop-yarn-common-3.1.3.jar/yarn-default.xml |
[mapred-default.xml] | hadoop-mapreduce-client-core-3.1.3.jar/mapred-default.xml |
(2)自定義配置文件:
? core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml 四個(gè)配置文件存放在$HADOOP_HOME/etc/hadoop這個(gè)路徑上,用戶可以根據(jù)項(xiàng)目需求重新進(jìn)行修改配置。
2.3 配置集群
2.3.1 配置文件
(1)核心配置文件
配置core-site.xml
[atguigu@hadoop102 ~]$ cd $HADOOP_HOME/etc/hadoop
[atguigu@hadoop102 hadoop]$ vim core-site.xml
文件內(nèi)容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop102:8020</value>
</property>
<!-- 指定hadoop數(shù)據(jù)的存儲(chǔ)目錄 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-3.1.3/data</value>
</property>
<!-- 配置HDFS網(wǎng)頁(yè)登錄使用的靜態(tài)用戶為atguigu -->
<property>
<name>hadoop.http.staticuser.user</name>
<value>atguigu</value>
</property>
</configuration>
(2)HDFS 配置文件
配置hdfs-site.xml
[atguigu@hadoop102 hadoop]$ vim hdfs-site.xml
文件內(nèi)容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- nn web端訪問(wèn)地址-->
<property>
<name>dfs.namenode.http-address</name>
<value>hadoop102:9870</value>
</property>
<!-- 2nn web端訪問(wèn)地址-->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop104:9868</value>
</property>
</configuration>
(3)YARN 配置文件
配置 yarn-site.xml
[atguigu@hadoop102 hadoop]$ vim yarn-site.xml
文件內(nèi)容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定MR走shuffle -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定ResourceManager的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop103</value>
</property>
<!-- 環(huán)境變量的繼承 -->
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
</configuration>
(4)MapReduce 配置文件
配置 mapred-site.xml
[atguigu@hadoop102 hadoop]$ vim mapred-site.xml
文件內(nèi)容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定MapReduce程序運(yùn)行在Yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
2.3.2 在集群上分發(fā)配置好的 Hadoop 配置文件
[atguigu@hadoop102 hadoop]$ xsync /opt/module/hadoop-3.1.3/etc/hadoop/
2.3.3 去103 和 104 上查看文件分發(fā)情況
[atguigu@hadoop103 ~]$ cat /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml
[atguigu@hadoop104 ~]$ cat /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml
3. 群起集群
3.1 配置 workers
[atguigu@hadoop102 hadoop]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/workers
在該文件中增加如下內(nèi)容
hadoop102
hadoop103
hadoop104
注意:該文件中添加的內(nèi)容結(jié)尾不允許有空格,文件中不允許有空行。
同步所有節(jié)點(diǎn)配置文件
[atguigu@hadoop102 hadoop]$ xsync /opt/module/hadoop-3.1.3/etc
3.2 啟動(dòng)集群
(1)如果集群是第一次啟動(dòng),需要在hadoop102節(jié)點(diǎn)格式化NameNode(注意:格式化NameNode,會(huì)產(chǎn)生新的集群id,導(dǎo)致NameNode和DataNode的集群id不一致,集群找不到已往數(shù)據(jù)。如果集群在運(yùn)行過(guò)程中報(bào)錯(cuò),需要重新格式化NameNode的話,一定要先停止namenode和datanode進(jìn)程,并且要?jiǎng)h除所有機(jī)器的data和logs目錄,然后再進(jìn)行格式化。)
[atguigu@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh
(2)啟動(dòng)HDFS
[atguigu@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh
(3)在配置了 ResourceManager的節(jié)點(diǎn)(hadoop103)啟動(dòng)YARN
[atguigu@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh
(4)Web端查看HDFS的NameNode
-
(a)瀏覽器中輸入:http://hadoop102:9870
-
(b)查看HDFS上存儲(chǔ)的數(shù)據(jù)信息
(5)Web端查看YARN的ResourceManager
-
(a)瀏覽器中輸入:http://hadoop103:8088
-
(b)查看YARN上運(yùn)行的Job信息
3.3 集群基本測(cè)試
(1)上傳文件到集群
-
上傳小文件
[atguigu@hadoop102 ~]$ hadoop fs -mkdir /input [atguigu@hadoop102 ~]$ hadoop fs -put $HADOOP_HOME/wcinput/word.txt /input
-
上傳大文件
[atguigu@hadoop102 ~]$ hadoop fs -put /opt/software/jdk-8u212-linux-x64.tar.gz /
(2)上傳文件后查看文件存放在什么位置
-
查看 HDFS文件存儲(chǔ)路徑
[atguigu@hadoop102 subdir0]$ pwd /opt/module/hadoop-3.1.3/data/
-
查看 HDFS 在磁盤存儲(chǔ)文件內(nèi)容
[atguigu@hadoop102 subdir0]$ cat blk_1073741825 hadoop yarn hadoop mapreduce atguigu atguigu
(3)拼接
-rw-rw-r–. 1 atguigu atguigu 134217728 5月 23 16:01 blk_1073741836
-rw-rw-r–. 1 atguigu atguigu 1048583 5月 23 16:01 blk_1073741836_1012.meta
-rw-rw-r–. 1 atguigu atguigu 63439959 5月 23 16:01 blk_1073741837
-rw-rw-r–. 1 atguigu atguigu 495635 5月 23 16:01 blk_1073741837_1013.meta
[atguigu@hadoop102 subdir0]$ cat blk_1073741836>>tmp.tar.gz
[atguigu@hadoop102 subdir0]$ cat blk_1073741837>>tmp.tar.gz
[atguigu@hadoop102 subdir0]$ tar -zxvf tmp.tar.gz
(4)下載
[atguigu@hadoop104 software]$ hadoop fs -get /jdk-8u212-linux-x64.tar.gz ./
(5)執(zhí)行 wordcount 程序
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output
4. 配置歷史服務(wù)器
為了查看程序的歷史運(yùn)行情況,需要配置一下歷史服務(wù)器。
1)配置 mapred-site.xml
[atguigu@hadoop102 hadoop]$ vim mapred-site.xml
在該文件里面增加如下配置。
<!-- 歷史服務(wù)器端地址 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop102:10020</value>
</property>
<!-- 歷史服務(wù)器web端地址 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop102:19888</value>
</property>
2)分發(fā)配置
[atguigu@hadoop102 hadoop]$ xsync $HADOOP_HOME/etc/hadoop/mapred-site.xml
3)在 hadoop102 啟動(dòng)歷史服務(wù)器
[atguigu@hadoop102 hadoop]$ mapred --daemon start historyserver
4)查看歷史服務(wù)器是否啟動(dòng)
[atguigu@hadoop102 hadoop]$ jps
5)查看 JobHistory
http://hadoop102:19888/jobhistory
5. 配置日志的聚集
日志聚集概念:應(yīng)用運(yùn)行完成以后,將程序運(yùn)行日志信息上傳到 HDFS 系統(tǒng)上。
日志聚集功能好處:可以方便的查看到程序運(yùn)行詳情,方便開發(fā)調(diào)試。
注意:開啟日志聚集功能,需要重新啟動(dòng) NodeManager、ResourceManager和HistoryServer。
開啟日志聚集功能具體步驟如下:
1)配置 yarn-site.xml
[atguigu@hadoop102 hadoop]$ vim yarn-site.xml
在該文件里面增加如下配置
<!-- 開啟日志聚集功能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 設(shè)置日志聚集服務(wù)器地址 -->
<property>
<name>yarn.log.server.url</name>
<value>http://hadoop102:19888/jobhistory/logs</value>
</property>
<!-- 設(shè)置日志保留時(shí)間為7天 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
2)分發(fā)配置
[atguigu@hadoop102 hadoop]$ xsync $HADOOP_HOME/etc/hadoop/yarn-site.xml
3)關(guān)閉 NodeManager、ResourceManager 和 HistoryServer
[atguigu@hadoop103 hadoop-3.1.3]$ sbin/stop-yarn.sh
[atguigu@hadoop103 hadoop-3.1.3]$ mapred --daemon stop historyserver
4)啟動(dòng) NodeManager、ResourceManager 和 HistoryServer
[atguigu@hadoop103 ~]$ start-yarn.sh
[atguigu@hadoop102 ~]$ mapred --daemon start historyserver
5)刪除 HDFS 上已經(jīng)存在的輸出文件
[atguigu@hadoop102 ~]$ hadoop fs -rm -r /output
6)執(zhí)行 WordCount 程序
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output
7)查看日志
(1)歷史服務(wù)器地址
http://hadoop102:19888/jobhistory
(2)歷史任務(wù)列表
(3)查看任務(wù)運(yùn)行日志
(4)運(yùn)行日志詳情
6. 集群?jiǎn)?dòng)/停止方式總結(jié)
1)各個(gè)模塊分開啟動(dòng)/停止(配置 ssh 是前提)常用
-
整體啟動(dòng)/停止 HDFS
start-dfs.sh/stop-dfs.sh
-
整體啟動(dòng)/停止 YARN
start-yarn.sh/stop-yarn.sh
2)各個(gè)服務(wù)組件逐一啟動(dòng)/停止
-
分別啟動(dòng)/停止 HDFS 組件
hdfs --daemon start.stop namenode/datanode/secondarynamenode
-
啟動(dòng)/停止 YARN
yarn --daemon start/stop resourcemanager/nodemanager
7. 編寫 Hadoop 集群常用腳本
1)Hadoop 集群?jiǎn)⑼D_本(包含 HDFS、Yarn、Historyserver):myhadoop.sh
[atguigu@hadoop102 ~]$ cd /home/atguigu/bin
[atguigu@hadoop102 bin]$ vim myhadoop.sh
-
輸入如下內(nèi)容
#!/bin/bash if [ $# -lt 1 ] then echo "No Args Input..." exit ; fi case $1 in "start") echo " =================== 啟動(dòng) hadoop集群 ===================" echo " --------------- 啟動(dòng) hdfs ---------------" ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/start-dfs.sh" echo " --------------- 啟動(dòng) yarn ---------------" ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/start-yarn.sh" echo " --------------- 啟動(dòng) historyserver ---------------" ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon start historyserver" ;; "stop") echo " =================== 關(guān)閉 hadoop集群 ===================" echo " --------------- 關(guān)閉 historyserver ---------------" ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon stop historyserver" echo " --------------- 關(guān)閉 yarn ---------------" ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/stop-yarn.sh" echo " --------------- 關(guān)閉 hdfs ---------------" ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/stop-dfs.sh" ;; *) echo "Input Args Error..." ;; esac
-
保存后退出,然后賦予腳本執(zhí)行權(quán)限
[atguigu@hadoop102 bin]$ chmod +x myhadoop.sh
2)查看三臺(tái)服務(wù)器 Java 進(jìn)程腳本:jpsall
[atguigu@hadoop102 ~]$ cd /home/atguigu/bin
[atguigu@hadoop102 bin]$ vim jpsall
-
輸入如下內(nèi)容
#!/bin/bash for host in hadoop102 hadoop103 hadoop104 do echo =============== $host =============== ssh $host jps done
-
保存后退出,然后賦予腳本執(zhí)行權(quán)限
[atguigu@hadoop102 bin]$ chmod +x jpsall
3)分發(fā)/home/atguigu/bin 目錄,保證自定義腳本在三臺(tái)機(jī)器上都可以使用
[atguigu@hadoop102 ~]$ xsync /home/atguigu/bin/
8. 常用端口號(hào)說(shuō)明
端口名稱 | Hadoop2.x | Hadoop3.x |
---|---|---|
NameNode內(nèi)部通信端口 | 8020 / 9000 | 8020 / 9000/9820 |
NameNode HTTP UI | 50070 | 9870 |
MapReduce查看執(zhí)行任務(wù)端口 | 8088 | 8088 |
歷史服務(wù)器通信端口 | 19888 | 19888 |
9. 集群時(shí)間同步
如果服務(wù)器在公網(wǎng)環(huán)境(能連接外網(wǎng)),可以不采用集群時(shí)間同步,因?yàn)榉?wù)器會(huì)定期和公網(wǎng)時(shí)間進(jìn)行校準(zhǔn);
如果服務(wù)器在內(nèi)網(wǎng)環(huán)境,必須要配置集群時(shí)間同步,否則時(shí)間久了,會(huì)產(chǎn)生時(shí)間偏差,導(dǎo)致集群執(zhí)行任務(wù)時(shí)間不同步。
9.1 需求
找一個(gè)機(jī)器,作為時(shí)間服務(wù)器,所有的機(jī)器與這臺(tái)集群時(shí)間進(jìn)行定時(shí)的同步,生產(chǎn)環(huán)境根據(jù)任務(wù)對(duì)時(shí)間的準(zhǔn)確程度要求周期同步,測(cè)試環(huán)境為了盡快看到效果,采用1分鐘同步一次。
9.2 時(shí)間服務(wù)器配置(必須root用戶)
(1)查看所有節(jié)點(diǎn) ntpd 服務(wù)狀態(tài)和開機(jī)自啟動(dòng)狀態(tài)
[atguigu@hadoop102 ~]$ su root
[root@hadoop102 atguigu]# systemctl status ntpd
[root@hadoop102 atguigu]# systemctl start ntpd
[root@hadoop102 atguigu]# systemctl is-enabled ntpd
(2)修改 hadoop102 的 ntp.conf 配置文件
[root@hadoop102 atguigu]# vim /etc/ntp.conf
修改內(nèi)容如下:
-
(a)修改1(授權(quán)192.168.10.0-192.168.10.255網(wǎng)段上的所有機(jī)器可以從這臺(tái)機(jī)器上查詢和同步時(shí)間)
#restrict 192.168.10.0 mask 255.255.255.0 nomodify notrap 為restrict 192.168.10.0 mask 255.255.255.0 nomodify notrap
-
(b)修改2(集群在局域網(wǎng)中,不使用其他互聯(lián)網(wǎng)上的時(shí)間)
server 0.centos.pool.ntp.org iburst server 1.centos.pool.ntp.org iburst server 2.centos.pool.ntp.org iburst server 3.centos.pool.ntp.org iburst
為
#server 0.centos.pool.ntp.org iburst #server 1.centos.pool.ntp.org iburst #server 2.centos.pool.ntp.org iburst #server 3.centos.pool.ntp.org iburst
-
(c)添加3(當(dāng)該節(jié)點(diǎn)丟失網(wǎng)絡(luò)連接,依然可以采用本地時(shí)間作為時(shí)間服務(wù)器為集群中的其他節(jié)點(diǎn)提供時(shí)間同步)
server 127.127.1.0 fudge 127.127.1.0 stratum 10
(3)修改 hadoop102 的/etc/sysconfig/ntpd 文件
[root@hadoop102 ~]# vim /etc/sysconfig/ntpd
增加內(nèi)容如下(讓硬件時(shí)間與系統(tǒng)時(shí)間一起同步)
SYNC_HWCLOCK=yes
(4)重新啟動(dòng) ntpd 服務(wù)
[root@hadoop102 ~]# systemctl start ntpd
(5)設(shè)置ntpd服務(wù)開機(jī)啟動(dòng)
[root@hadoop102 ~]#systemctl enable ntpd
9.3 其他機(jī)器配置(必須root用戶)
(1)關(guān)閉所有節(jié)點(diǎn)上 ntp 服務(wù)和自啟動(dòng)
[atguigu@hadoop102 ~]$ su root
[root@hadoop103 ~]# systemctl stop ntpd
[root@hadoop103 ~]# systemctl disable ntpd
[root@hadoop104 ~]# systemctl stop ntpd
[root@hadoop104 ~]# systemctl disable ntpd
(2)在其他機(jī)器上配置 1 分鐘與時(shí)間服務(wù)器同步一次
[root@hadoop103 ~]# crontab -e
編寫定時(shí)任務(wù)如下:
*/1 * * * * /usr/sbin/ntpdate hadoop102
(3)修改任意機(jī)器時(shí)間
[root@hadoop103 ~]# date -s "2021-9-11 11:11:11"
(4)1 分鐘后查看機(jī)器是否與時(shí)間服務(wù)器同步
[root@hadoop103 ~]# date
10. 常見(jiàn)錯(cuò)誤及解決方案
1)防火墻沒(méi)關(guān)閉、或者沒(méi)有啟動(dòng)YARN
INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032
2)主機(jī)名稱配置錯(cuò)誤
3)IP地址配置錯(cuò)誤
4)ssh沒(méi)有配置好
5)root用戶和atguigu兩個(gè)用戶啟動(dòng)集群不統(tǒng)一
6)配置文件修改不細(xì)心
7)不識(shí)別主機(jī)名稱
java.net.UnknownHostException: hadoop102: hadoop102
at java.net.InetAddress.getLocalHost(InetAddress.java:1475)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:146)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1287)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
解決辦法:
- (1)在/etc/hosts文件中添加192.168.10.102 hadoop102
- (2)主機(jī)名稱不要起hadoop hadoop000等特殊名稱
8)DataNode和NameNode進(jìn)程同時(shí)只能工作一個(gè)。
9)執(zhí)行命令不生效,粘貼Word中命令時(shí),遇到-和長(zhǎng)–沒(méi)區(qū)分開。導(dǎo)致命令失效
解決辦法:盡量不要粘貼Word中代碼。
10)jps發(fā)現(xiàn)進(jìn)程已經(jīng)沒(méi)有,但是重新啟動(dòng)集群,提示進(jìn)程已經(jīng)開啟。
原因是在Linux的根目錄下/tmp目錄中存在啟動(dòng)的進(jìn)程臨時(shí)文件,將集群相關(guān)進(jìn)程刪除掉,再重新啟動(dòng)集群。
11)jps不生效
原因:全局變量hadoop java沒(méi)有生效。解決辦法:需要source /etc/profile文件。
12)8088端口連接不上
[atguigu@hadoop102 桌面]$ cat /etc/hosts
注釋掉如下代碼
#127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-681144.html
#::1 hadoop102文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-681144.html
到了這里,關(guān)于從零開始的Hadoop學(xué)習(xí)(四)| SSH無(wú)密登錄配置、集群配置的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!