操作系統(tǒng):centos7
軟件環(huán)境:jdk8、hadoop-2.8.5
一、創(chuàng)建虛擬機(jī)
1.下載VMware,建議支持正版
2.安裝到Widows目錄下任意位置即可,安裝目錄自定義。打開VMware,界面如下:
3.創(chuàng)建虛擬機(jī)
創(chuàng)建虛擬機(jī)—>選擇自定義
這一步按照默認(rèn)的配置就好
選擇系統(tǒng),安裝程序光盤映像文件iso,這里需要下載cenos鏡像文件給虛擬機(jī)命名,選擇虛擬機(jī)安裝位置
處理器配置
內(nèi)存配置
配置虛擬機(jī)網(wǎng)絡(luò)連接方式
選擇I/O控制器
創(chuàng)建磁盤
設(shè)置磁盤大小
選擇虛擬磁盤存放地址
檢查虛擬機(jī)配置,如果沒有什么問題,點(diǎn)擊完成
啟動(dòng)虛擬機(jī),鼠標(biāo)點(diǎn)擊虛擬機(jī)屏幕,使用鍵盤上下鍵移動(dòng)光標(biāo)位置,光標(biāo)在Install CentOS 7處,按下enter鍵
等待系統(tǒng)進(jìn)入CentOS安裝界面,選擇簡(jiǎn)體中文
設(shè)置時(shí)區(qū),選擇亞洲–上海軟件選擇,GNOME桌面
選擇自動(dòng)配置分區(qū)
點(diǎn)擊開始安裝
設(shè)置root密碼
創(chuàng)建用戶
等待…安裝完成,重啟虛擬機(jī)
初始設(shè)置,完成授權(quán)
進(jìn)入centos登錄界面
二、配置虛擬機(jī)網(wǎng)絡(luò)
編輯—>虛擬機(jī)網(wǎng)絡(luò)編輯器–>NAT模式–>DHCP設(shè)置
查看網(wǎng)絡(luò)信息
打開終端面板,進(jìn)入root模式
vi /etc/sysconfig/network-scripts/ifcfg-ens33
修改網(wǎng)絡(luò)配置,配置如下:
使用wq命令保存,使用下面命令重啟網(wǎng)絡(luò)服務(wù)
service network restart
免密登錄配置
修改主機(jī)名稱
vi /etc/hostname
編輯映射文件hosts
vi /etc/hosts
添加如下配置
192.168.245.200 master
192.168.245.201 slave1
192.168.245.202 slave2
# 生成公鑰與私鑰(三次回車)
ssh-keygen -t rsa
將~/.ssh/id_rsa.pub 分發(fā)到節(jié)點(diǎn)服務(wù)器的~/.ssh目錄下,并重命名為 authorized_keys
for i in {1..2};do scp -r ~/.ssh/authorized_keys root@slave${i}:~/.ssh/;done
這樣便可以實(shí)現(xiàn)不同節(jié)點(diǎn)服務(wù)器免密登錄
每臺(tái)服務(wù)器都需要配置
三、安裝jdk
上傳jdk到linux系統(tǒng),這里使用jdk1.8版本
將其解壓到指定目錄下
tar -zxvf jdk-8u301-linux-x64.tar.gz -C /home/local/
移動(dòng)至java目錄
mv jdk1.8.0_301 java
配置環(huán)境
vim /etc/profile
添加如下配置
#java
export JAVA_HOME=/home/local/java
export JRE_HOME=/home/local/java/jre
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
source /etc/profile
在終端輸入java -version,出現(xiàn)下面信息,說明配置成功。
四、安裝hadoop
上傳hadoop安裝包到linux系統(tǒng),這里使用hadoop2.8.5版本
解壓安裝包
tar -zxvf hadoop-2.8.5.tar.gz -C /home/local/
移動(dòng)至hadoop目錄
mv hadoop-2.8.5/ hadoop
配置hadoop環(huán)境
vi /etc/profile
添加如下配置
#hadoop
export HADOOP_HOME=/home/local/hadoop
export PATH=$PATH:${HADOOP_HOME}/bin
使用配置的環(huán)境變量立即生效
source /etc/profile
配置 hadoop-env.sh 文件,指定java安裝目錄
cd $HADOOP_HOME/etc/hadoop
修改hadoop-env.sh文件
vi /hadoop-env.sh
配置如下
export JAVA_HOME=/home/local/java
配置Hadoop主要文件
核心配置文件 —— core-site.xml
HDFS 配置文件 —— hdfs-site.xml
YARN 配置文件 —— yarn-site.xml
MapReduce 配置文件 —— mapred-site.xml
1.core-site.xml
<configuration>
<!-- 指定 NameNode 的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<!-- 指定 Hadoop 數(shù)據(jù)的存儲(chǔ)目錄 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/tmp</value>
</property>
<!-- 配置 HDFS 網(wǎng)頁(yè)登錄使用的靜態(tài)用戶為 master -->
<property>
<name>hadoop.http.staticuser.user</name>
<value>master</value>
</property>
</configuration>
2.hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/opt/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/opt/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>master:9870</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>slave2:9871</value>
</property>
</configuration>
3.yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<!-- 指定 MR 走 shuffle -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<!-- 指定 客戶端web 的地址-->
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
<!-- 環(huán)境變量的繼承 -->
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
<!-- 如果要程序的運(yùn)行日志信息上傳到HDFS系統(tǒng)上,可配置日志聚集(選擇配置) -->
<!-- 開啟日志聚集功能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 設(shè)置日志聚集服務(wù)器地址 -->
<property>
<name>yarn.log.server.url</name>
<value>http://master:19888/jobhistory/logs</value>
</property>
<!-- 設(shè)置日志保留時(shí)間為7天 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
</configuration>
4.mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>
五、啟動(dòng)hadoop
將hadoop分發(fā)到每個(gè)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)都要進(jìn)行格式化,進(jìn)入$HADOOP_HOME/bin目錄下
$HADOOP_HOME/bin/hdfs namenode -format
進(jìn)入$HADOOP_HOME的sbin目錄下,分別啟動(dòng)hdfs和yarn文章來源:http://www.zghlxwxcb.cn/news/detail-578501.html
./start-dfs.sh && ./start-yarn.sh
使用jps命令查看進(jìn)程
六、訪問Web UI界面
客戶端Web頁(yè)面
http://192.168.245.200:8088/cluster/nodes
hdfs頁(yè)面文章來源地址http://www.zghlxwxcb.cn/news/detail-578501.html
到了這里,關(guān)于大數(shù)據(jù)學(xué)習(xí)02-Hadoop分布式集群部署的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!