国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Hadoop3.3.6安裝和配置hbase-2.5.5-hadoop3x,zookeeper-3.8.3

這篇具有很好參考價(jià)值的文章主要介紹了Hadoop3.3.6安裝和配置hbase-2.5.5-hadoop3x,zookeeper-3.8.3。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。


前置配置

vm設(shè)置

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

虛擬機(jī)創(chuàng)建(hadoop1,hadoop2,hadoop3)

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

在安裝過(guò)程中推薦設(shè)置root用戶(hù)密碼為1234方面后續(xù)操作

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

linux前置配置(三個(gè)機(jī)器都要設(shè)置)

1.設(shè)置主機(jī)名

以hadoop3為例

hostnamectl set-hostname hadoop3

2.設(shè)置固定ip

vim  /etc/sysconfig/network-scripts/ifcfg-ens33

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hadoop1 192.168.88.201

hadoop2 192.168.88.202

hadoop3 192.168.88.203

最后執(zhí)行
service network restart
刷新網(wǎng)卡

3.工具連接(三個(gè)機(jī)器都要設(shè)置)

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

4.主機(jī)映射

windows:

C:\Windows\System32\drivers\etc

修改這個(gè)路徑下的hosts文件

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

推薦使用vscode打開(kāi)可以修改成功

linux:(三個(gè)機(jī)器都要設(shè)置)
vim /etc/hosts

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

5.配置SSH免密登錄(三個(gè)機(jī)器都要設(shè)置)

root免密
1.在每一臺(tái)機(jī)器都執(zhí)行:ssh-keygen -trsa -b 4096 ,一路回車(chē)到底即可

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

2.在每一臺(tái)機(jī)器都執(zhí)行:
ssh-copy-id hadoop1
ssh-copy-id hadoop2
ssh-copy-id hadoop3

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hadoop免密

創(chuàng)建hadoop用戶(hù)并配置免密登錄

1.在每一臺(tái)機(jī)器執(zhí)行:useradd hadoop,創(chuàng)建hadoop用戶(hù)
2.在每一臺(tái)機(jī)器執(zhí)行:passwd hadoop,設(shè)置hadoop用戶(hù)密碼為1234

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

3.在每一臺(tái)機(jī)器均切換到hadoop用戶(hù):su - hadoop,并執(zhí)行ssh-keygen -trsa -b 4096,創(chuàng)建ssh密鑰

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

4.在每一臺(tái)機(jī)器均執(zhí)行
ssh-copy-id hadoop1
ssh-copy-id hadoop2
ssh-copy-id hadoop3

6.關(guān)閉防火墻和SELinux(三個(gè)機(jī)器都要設(shè)置)

1:
systemctl stop firewalld

systemctl disable firewalld

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

2.
vim /etc/sysconfig/selinux 

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

設(shè)置好輸入 init 6 重啟

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

3.

以下操作在三臺(tái)Linux均執(zhí)行

  1. 安裝ntp軟件
yum install -y ntp
  1. 更新時(shí)區(qū)
rm -f /etc/localtime;sudo ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
  1. 同步時(shí)間
ntpdate -u ntp.aliyun.com
  1. 開(kāi)啟ntp服務(wù)并設(shè)置開(kāi)機(jī)自啟
systemctl start ntpd

systemctl enable ntpd

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

三臺(tái)創(chuàng)建快照1

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

環(huán)境配置

1、jdk1.8 Java Downloads | Oracle

2、hadoop-3.3.6 Apache Hadoop

3、hbase-2.5.5.hadoop3x Index of /dist/hbase/2.5.5 (apache.org)

4、zookeeper-3.8.3 Apache ZooKeeper

重點(diǎn):以下配置都是在root用戶(hù)下進(jìn)行配置后續(xù)會(huì)給對(duì)應(yīng)的hadoop用戶(hù)權(quán)限

推薦一口氣配置完在進(jìn)行給予權(quán)限和進(jìn)行配置文件的刷新,以及最后的分發(fā)

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

jdk

創(chuàng)建文件夾,用來(lái)部署JDK,將JDK和Tomcat都安裝部署到:/export/server 內(nèi)

cd /

mkdir export

cd export

mkdir server

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

解壓縮JDK安裝文件

tar -zxvf jdk-8u321-linux-x64.tar.gz -C /export/server

配置JDK的軟鏈接

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

配置JAVA_HOME環(huán)境變量,以及將$JAVA_HOME/bin文件夾加入PATH環(huán)境變量中

vim /etc/profile

export JAVA_HOME=/export/server/jdk
export PATH=$PATH: $JAVA_HOME/bin

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

生效環(huán)境變量

source /etc/profile

刪除系統(tǒng)自帶的java程序

rm -f /usr/bin/java

軟鏈接我們自己的java

ln -s /export/server/jdk/bin/java /usr/bin/java

執(zhí)行驗(yàn)證

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

分發(fā)

hadoop2,3先創(chuàng)建文件夾

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hadoop分發(fā)

cd /export/server/

scp -r jdk1.8.0_321/ hadoop2:`pwd`

scp -r jdk1.8.0_321/ hadoop3:`pwd`

cd /etc

scp -r profile hadoop2:`pwd`

scp -r profile hadoop3:`pwd`
hadoop2,3
source /etc/profile

rm -f /usr/bin/java

ln -s /export/server/jdk/bin/java /usr/bin/java

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hadoop

上傳和解壓

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

cd /export/server

 tar -zxvf hadoop-3.3.6.tar.gz 

ln -s hadoop-3.3.6 hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hadoop配置

worksers
hadoop1

hadoop2

hadoop3

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hdfs-site.xml
<property>
<name>dfs.namenode.http-address</name>
<value>0.0.0.0:9870</value>
<description> The address and the base port where the dfs namenode web ui will listen on.
</description>
</property>
<property>
<name>dfs.datanode.data.dir.perm</name>
<value>700</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/data/nn</value>
</property>
<property>
<name>dfs.namenode.hosts</name>
<value>hadoop1,hadoop2,hadoop3</value>
</property>
<property>
<name>dfs.blocksize</name>
<value>268435456</value>
</property>
<property>
<name>dfs.namenode.handler.count</name>
<value>100</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/data/dn</value>
</property>
core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop1:8020</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
hadoop-env.sh
export JAVA_HOME=/export/server/jdk
export HADOOP_HOME=/export/server/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_LOG_DIR=$HADOOP_HOME/logs
yarn-site.xml
<!-- Site specific YARN configuration properties -->
<property>
    <name>yarn.log.server.url</name>
    <value>http://hadoop1:19888/jobhistory/logs</value>
    <description></description>
</property>

  <property>
    <name>yarn.web-proxy.address</name>
    <value>hadoop1:8089</value>
    <description>proxy server hostname and port</description>
  </property>


  <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
    <description>Configuration to enable or disable log aggregation</description>
  </property>

  <property>
    <name>yarn.nodemanager.remote-app-log-dir</name>
    <value>/tmp/logs</value>
    <description>Configuration to enable or disable log aggregation</description>
  </property>


<!-- Site specific YARN configuration properties -->
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop1</value>
    <description></description>
  </property>

  <property>
    <name>yarn.resourcemanager.scheduler.class</name>
    <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
    <description></description>
  </property>

  <property>
    <name>yarn.nodemanager.local-dirs</name>
    <value>/data/nm-local</value>
    <description>Comma-separated list of paths on the local filesystem where intermediate data is written.</description>
  </property>

  <property>
    <name>yarn.nodemanager.log-dirs</name>
    <value>/data/nm-log</value>
    <description>Comma-separated list of paths on the local filesystem where logs are written.</description>
  </property>

  <property>
    <name>yarn.nodemanager.log.retain-seconds</name>
    <value>10800</value>
    <description>Default time (in seconds) to retain log files on the NodeManager Only applicable if log-aggregation is disabled.</description>
  </property>

  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    <description>Shuffle service that needs to be set for Map Reduce applications.</description>
  </property>

<!-- 是否需要開(kāi)啟Timeline服務(wù) -->
<property>
 <name>yarn.timeline-service.enabled</name>
 <value>true</value>
 </property>
 <!-- Timeline Web服務(wù)的主機(jī),通過(guò)8188端?訪問(wèn) --> 
<property>
 <name>yarn.timeline-service.hostname</name>
 <value>hadoop1</value>
 </property>
 <!-- 設(shè)置ResourceManager是否發(fā)送指標(biāo)信息到Timeline服務(wù) -->
 <property>
 <name>yarn.system-metrics-publisher.enabled</name>
 <value>false</value> 
</property>
mapred-site.xml
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    <description></description>
  </property>

  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>hadoop1:10020</value>
    <description></description>
  </property>


  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>hadoop1:19888</value>
    <description></description>
  </property>


  <property>
    <name>mapreduce.jobhistory.intermediate-done-dir</name>
    <value>/data/mr-history/tmp</value>
    <description></description>
  </property>

  <property>
    <name>mapreduce.jobhistory.done-dir</name>
    <value>/data/mr-history/done</value>
    <description></description>
  </property>
<property>
  <name>yarn.app.mapreduce.am.env</name>
  <value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value>
</property>
<property>
  <name>mapreduce.map.env</name>
  <value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value>
</property>
<property>
  <name>mapreduce.reduce.env</name>
  <value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value>
</property>

環(huán)境變量配置

vim /etc/profile

export HADOOP_HOME=/export/server/hadoop 

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

分發(fā)hadoop到 主機(jī)2,3

發(fā)送hadoop
cd /export/server/

scp -r hadoop-3.3.6/ hadoop2:`pwd`

scp -r hadoop-3.3.6/ hadoop3:`pwd`
發(fā)送環(huán)境變量
cd /etc

scp -r profile hadoop2:`pwd`

scp -r profile hadoop2:`pwd`
其他設(shè)置

hadoop2,3分別創(chuàng)建軟連接

cd /export/server/

 ln -s hadoop-3.3.6/ hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

刷新環(huán)境變量
source /etc/peorfile

hadoop version

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hadoop權(quán)限配置

主機(jī) 123 都執(zhí)行: 以 root 權(quán)限 給 hadoop 用戶(hù)配置相關(guān)權(quán)限

mkdir -p /data/nn

mkdir -p /data/dn

chown -R hadoop:hadoop /data

chown -R hadoop:hadoop /export

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

創(chuàng)建快照2

格式化與啟動(dòng)

1.切換用戶(hù)hadoop
 su - hadoop
2.進(jìn)行格式化
hdfs namenode -format
3.啟動(dòng)!!!

一鍵啟動(dòng):

start-all.sh

分開(kāi)啟動(dòng):

start-dfs.sh

start-yarn.sh

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

查看網(wǎng)頁(yè)

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

zookeeper

上傳與解壓

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

 cd /export/server/

tar -zxvf apache-zookeeper-3.9.1-bin.tar.gz 

ln -s apache-zookeeper-3.9.1-bin zookeeper

rm -rf apache-zookeeper-3.9.1-bin.tar.gz 

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

配置

cd /export/server/zookeeper/conf/

cp zoo_sample.cfg zoo.cfg

//修改 zoo.cfg 配置文件,將 dataDir=/data/zookeeper/data 修改為指定的data目錄

vim zoo.cfg

dataDir=/export/server/zookeeper/zkData

server.2=hadoop1:2888:3888
server.1=hadoop2:2888:3888
server.3=hadoop3:2888:3888

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

cd .. 

mkdir zkData

vim myid

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

分發(fā)和環(huán)境變量

環(huán)境變量
vim /etc/profile
export ZOOKEEPER_HOME=/export/server/zookeeper
export PATH=$PATH:$ZOOKEEPER_HOME/bin

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

分發(fā)
cd /etc

scp -r profile hadoop2:`pwd`

scp -r profile hadoop3:`pwd`

cd /export/server/

scp -r  apache-zookeeper-3.9.1-bin/ hadoop2:`pwd`

scp -r  apache-zookeeper-3.9.1-bin/ hadoop3:`pwd`

hadoop2,3創(chuàng)建軟連接

ln -s apache-zookeeper-3.9.1-bin/ zookeeper
hadoop2,3修改內(nèi)容
cd /export/server/zookeeper/zkData/

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop
hadoop1 修改為2
hadoop2 修改為1
hadoop3 修改為3

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

刷新配置文件
source /etc/profile

重新給權(quán)限

chown -R hadoop:hadoop /export

啟動(dòng)(三個(gè)機(jī)器都執(zhí)行)

su - hadoop

bin/zkServer.sh start 

查看狀態(tài)

bin/zkServer.sh status

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase

上傳和解壓

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

tar -zxvf hbase-2.5.5-hadoop3-bin.tar.gz 

ln -s hbase-2.5.5-hadoop3 hbase

rm -rf hbase-2.5.5-hadoop3-bin.tar.gz 

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

配置

cd /export/server/hbase/conf/

mkdir -p /data/hbase/logs
hbase-env.sh
export JAVA_HOME=/export/server/jdk
export HBASE_MANAGES_ZK=false
regionservers

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

backup-master

vim backup-master

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase-site.xml
  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>
<property>
    <name>hbase.zookeeper.quorum</name>
    <value>hadoop1,hadoop2,hadoop3</value>
  </property>
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://hadoop1:8020/hbase</value>
  </property>

<property>
  <name>hbase.wal.provider</name>
  <value>filesystem</value>
</property>

分發(fā)和權(quán)限以及環(huán)境變量

環(huán)境變量
vim /etc/profile

export HBASE_HOME=/export/server/hbase

export PATH=$PATH:$HBASE_HOME/bin

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

分發(fā)
cd /export

scp -r hbase-2.5.5-hadoop3/ hadoop2:`pwd`

scp -r hbase-2.5.5-hadoop3/ hadoop3:`pwd`

hadoop2,3分別創(chuàng)建軟連接

ln -s hbase-2.5.5-hadoop2/ hbase

ln -s hbase-2.5.5-hadoop3/ hbase

cd /etc

scp -r profile hadoop2:`pwd`

scp -r profile hadoop3:`pwd`

source  /etc/proflie
權(quán)限(都執(zhí)行)
chown -R hadoop:hadoop /export

chown -R hadoop:hadoop /data

啟動(dòng)

su - hadoop

start-hbase

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop

hbase2.5.6 認(rèn)證密碼,linux,hbase,zookeeper,hadoop文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-770698.html

到了這里,關(guān)于Hadoop3.3.6安裝和配置hbase-2.5.5-hadoop3x,zookeeper-3.8.3的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【生產(chǎn)級(jí)實(shí)踐】Docker部署配置Hadoop3.x + HBase2.x實(shí)現(xiàn)真正分布式集群環(huán)境

    【生產(chǎn)級(jí)實(shí)踐】Docker部署配置Hadoop3.x + HBase2.x實(shí)現(xiàn)真正分布式集群環(huán)境

    網(wǎng)上找了很多資料,但能夠?qū)崿F(xiàn)Docker安裝Hadoop3.X和Hbase2.X真正分布式集群的教程很零散,坑很多, 把經(jīng)驗(yàn)做了整理, 避免趟坑。 1、機(jī)器環(huán)境 這里采用三臺(tái)機(jī)器來(lái)部署分布式集群環(huán)境: 192.168.1.101 hadoop1 (docker管理節(jié)點(diǎn)) 192.168.1.102 hadoop2 192.168.1.103 hadoop3 2、下載Docker Hadoop的

    2024年02月02日
    瀏覽(25)
  • Hadoop3.1.3完全分布式安裝配置

    Hadoop3.1.3完全分布式安裝配置

    1. 將hadoop-3.1.3.tar.gz復(fù)制到虛擬機(jī)/opt/software目錄下: 2.在/opt/software目錄下使用tar命令解壓hadoop-3.1.3.tar.gz到/opt/module目錄下:? 執(zhí)行結(jié)果如下: 3.在/opt/module目錄下修改文件夾名稱(chēng): 執(zhí)行結(jié)果如下: ?4.打開(kāi)環(huán)境變量: 執(zhí)行結(jié)果如下: 5.將光標(biāo)移至文件底部,按“i”鍵編輯并作

    2024年02月08日
    瀏覽(25)
  • Hadoop3.1.3安裝教程_單機(jī)/偽分布式配置_Hadoop3.1.3/Ubuntu18.04(16.04)

    Hadoop3.1.3安裝教程_單機(jī)/偽分布式配置_Hadoop3.1.3/Ubuntu18.04(16.04)

    目錄 前言: 一、VMware Workstation 二、Ubuntu系統(tǒng)安裝 新建虛擬機(jī) 三、Ubuntu系統(tǒng)的配置 四、更新apt 五、安裝SSH、配置SSH無(wú)密碼登陸? 六、安裝Java環(huán)境 七、安裝 Hadoop3.1.3 八、Hadoop單機(jī)配置(非分布式) 九、Hadoop偽分布式配置 前言: ????????本篇教程由作者本人進(jìn)行修改,原教

    2024年02月03日
    瀏覽(57)
  • CentOS7 Hadoop3.3.0 安裝與配置

    CentOS7 Hadoop3.3.0 安裝與配置

    一、安裝JDK 1、創(chuàng)建文件夾tools和training用于存放壓縮包和解壓使用,tools存放壓縮包,training用于解壓后安裝jdk和hadoop的路徑。 1)回到路徑為 / 的位置 2) 創(chuàng)建 tools 和 training 3) 進(jìn)入tools文件夾 4) 左邊mobaxterm里面點(diǎn)擊進(jìn)入/tools文件夾,將發(fā)給大家的 壓縮包直接鼠標(biāo)拖入進(jìn)去,拖

    2024年02月09日
    瀏覽(20)
  • Hadoop3.1.3安裝教程單機(jī)偽分布式配置

    本教程使用 Ubuntu 18.04 64位 作為系統(tǒng)環(huán)境(或者Ubuntu 14.04,Ubuntu16.04 也行,32位、64位均可),請(qǐng)自行安裝系統(tǒng)。裝好了 Ubuntu 系統(tǒng)之后,在安裝 Hadoop 前還需要做一些必備工作。 創(chuàng)建hadoop用戶(hù) 如果你安裝 Ubuntu 的時(shí)候不是用的 “hadoop” 用戶(hù),那么需要增加一個(gè)名為 hadoop 的用

    2024年02月04日
    瀏覽(27)
  • Hadoop3.x完全分布式環(huán)境搭建Zookeeper和Hbase

    Hadoop3.x完全分布式環(huán)境搭建Zookeeper和Hbase

    集群規(guī)劃 IP地址 主機(jī)名 集群身份 192.168.138.100 hadoop00 主節(jié)點(diǎn) 192.168.138.101 hadoop01 從節(jié)點(diǎn) 192.168.138.102 hadoop02 從節(jié)點(diǎn) Hadoop完全分布式環(huán)境搭建請(qǐng)移步傳送門(mén) 先在主節(jié)點(diǎn)上進(jìn)行安裝和配置,隨后分發(fā)到各個(gè)從節(jié)點(diǎn)上。 1.1 解壓zookeeper并添加環(huán)境變量 1)解壓zookeeper到/usr/local文件夾

    2024年02月04日
    瀏覽(29)
  • Ubuntu22.04 Hadoop3.3.4 jdk18.02 安裝配置

    Ubuntu22.04 Hadoop3.3.4 jdk18.02 安裝配置

    閱讀推薦(105條消息) 大數(shù)據(jù)安裝之hadoop-3.3.4_x_y_z423的博客-CSDN博客 (112條消息) hadoop3.3.4集群安裝部署_hwbays的博客-CSDN博客 加倍推薦,Hadoop集群配置內(nèi)容講的及其詳細(xì) 基于docker的hadoop集群搭建 xshell Windows 10 Pro, 64-bit VMware? Workstation 16 Pro Ubuntu22.04 * 3 2、VMware tools安裝 apt install

    2023年04月11日
    瀏覽(30)
  • Ubuntu 20.0.4 Hadoop3.3.2 安裝與配置全流程保姆教程

    Ubuntu 20.0.4 Hadoop3.3.2 安裝與配置全流程保姆教程

    準(zhǔn)備工作 我下載的壓縮包是基于 Windows 系統(tǒng) x86 指令集的,如果你是蘋(píng)果電腦可能需要選擇 ARM 版本 3.21 更新:hadoop 某些功能不支持 JDK11 及以上版本(如網(wǎng)頁(yè)管理無(wú)法查看文件系統(tǒng)),所以下載時(shí)選擇 JDK8,官網(wǎng)需要登陸甲骨文賬號(hào)下載 全新的 ubuntu 虛擬機(jī) https://ubuntu.com/downl

    2024年02月07日
    瀏覽(17)
  • Hadoop3.3.5云耀云服務(wù)器安裝教程-單機(jī)/偽分布式配置

    Hadoop3.3.5云耀云服務(wù)器安裝教程-單機(jī)/偽分布式配置

    華為云耀云服務(wù)器試用領(lǐng)取 領(lǐng)取的試用云耀云服務(wù)器在哪 阿里云服務(wù)器免費(fèi)試用領(lǐng)取 Hadoop3.3.5云耀云服務(wù)器安裝教程-單機(jī)/偽分布式配置 阿里云服務(wù)器ECS安裝圖形界面 本篇文章是基于上一篇所配置好的云服務(wù)器進(jìn)行實(shí)驗(yàn)軟件安裝,該系列文章是根據(jù)林子雨所講述的課程就在

    2024年01月21日
    瀏覽(54)
  • 大數(shù)據(jù)-安裝 Hadoop3.1.3 詳細(xì)教程-偽分布式配置(Centos7)

    大數(shù)據(jù)-安裝 Hadoop3.1.3 詳細(xì)教程-偽分布式配置(Centos7)

    **相關(guān)資源:**https://musetransfer.com/s/q43oznf6f(有效期至2023年3月16日)|【Muse】你有一份文件待查收,請(qǐng)點(diǎn)擊鏈接獲取文件 1.檢查是否安裝ssh (CentOS 7 即使是最小化安裝也已附帶openssh 可跳過(guò)本步驟) 若已安裝進(jìn)行下一步驟 若未安裝 請(qǐng)自行百度 本教程不做過(guò)多講解 2.配置ss

    2023年04月08日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包