国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Centos7部署hadoop(單機)

這篇具有很好參考價值的文章主要介紹了Centos7部署hadoop(單機)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1.修改主機名稱(需要在root用戶下執(zhí)行)
hostnamectl set-hostname 需要修改的主機名稱
或者修改配置文件 vim /etc/hostname
centos7-64搭建大數(shù)據(jù)環(huán)境單機,hadoop,chrome,大數(shù)據(jù)
2.如果主機沒有固定IP,需要固定IP(這一步自行查詢)
3.關(guān)閉防火墻

systemctl start firewalld.service  #開啟防火墻
systemctl restart firewalld.service #重啟防火墻
systemctl stop firewalld.service #關(guān)閉防火墻
systemctl status firewalld.service # 防火墻狀態(tài)

4.禁用selinux
永久關(guān)閉selinux 安全策略,可以修改/etc/selinux/config, 將SELINUX=enforcing 修改為SELINUX=disabled

# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
#     enforcing - SELinux security policy is enforced.
#     permissive - SELinux prints warnings instead of enforcing.
#     disabled - No SELinux policy is loaded.
SELINUX=disabled
# SELINUXTYPE= can take one of three values:
#     targeted - Targeted processes are protected,
#     minimum - Modification of targeted policy. Only selected processes are protected.
#     mls - Multi Level Security protection.
SELINUXTYPE=targeted

5.設(shè)置ssh免密登錄
進入/root/.ssh儲存密鑰文件夾,通過ls -l指令查看是否有舊密鑰
cd /root/.ssh #進入秘鑰存放目錄
rm -rf * #刪除舊秘鑰
使用ssh-keygen -t dsa 命令生成秘鑰,在這個過程中需要多次回車鍵選取默認配置

[root@localhost .ssh]# ssh-keygen -t dsa
Generating public/private dsa key pair.
Enter file in which to save the key (/root/.ssh/id_dsa): 
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /root/.ssh/id_dsa.
Your public key has been saved in /root/.ssh/id_dsa.pub.
The key fingerprint is:
SHA256:QNHQYbzj9rWNmAItP5x root@hadoopmaster
The key's randomart image is:
+---[DSA 1024]----+
|      +*oo . .   |
|     . 
|       B * * 
|         +  oo.oo|
+----[SHA256]-----+

將生成的密鑰文件id_dsa.pub 復制到SSH指定的密鑰文件中authorized_keys中

cat id_dsa.pub >>authorized_keys

測試秘鑰是否登入成功

[root@localhost .ssh]# ssh hadoopmaster
The authenticity of host 'hadoopmaster (fe80::7468:4a91:e381:bd03%eth0)' can't be established.
ECDSA key fingerprint is SHA256:SOi/rsJBsRn/zcHQ/gtT0Bg.
ECDSA key fingerprint is MD5:6a:0:88:38:fc:e0:bf:4b6:bf:59:b0.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'hadoopmaster,f8a91:e3' (ECDSA) to the list of known hosts.
Last login: Fri Feb  2 10:17:45 2024 from 192.168

6.重啟
修改主機名等相關(guān)配置,必須重啟主機

[root@hadoopmaster ~]# reboot

7.安裝jdk
將jdk-8u341-linux-x64.rpm上傳到/user/local文件夾中,并執(zhí)行
rpm -ivh jdk-8u341-linux-x64.rpm
這樣安裝的jdk路徑為:/usr/java/jdk1.8.0_341-amd64
8.安裝hadoop(hadoop用戶下操作)
將hadoop-3.3.6.tar.gz文件上傳到/home/hadoop文件夾,然后使用tar -xvf hadoop-3.3.6.tar.gz 解壓文件,并使用mv hadoop-3.3.6 hadoop更改文件夾名
9.配置hadoop環(huán)境配置(root下操作)
vim /etc/profile

export HADOOP_HOME=/home/hadoop/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/lib
export HDFS_NAMENODE_USER=root

export HDFS_DATANODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export HDFS_JOURNALNODE_USER=root

export HDFS_ZKFC_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

export HADOOP_MAPRED_HOME=$HADOOP_HOME

export HADOOP_COMMON_HOME=$HADOOP_HOME

export HADOOP_HDFS_HOME=$HADOOP_HOME

export HADOOP_YARN_HOME=$HADOOP_HOME

export HADOOP_INSTALL=$HADOOP_HOME

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec

export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

修改完之后,執(zhí)行source /etc/profile使變更環(huán)境變量生效

[root@hadoopmaster local]# source /etc/profile

在hadoop目錄創(chuàng)建data目錄
mkdir ./data
centos7-64搭建大數(shù)據(jù)環(huán)境單機,hadoop,chrome,大數(shù)據(jù)
11.修改配置文件
進入/home/hadoop/hadoop/etc/hadoop查看目錄下的文件,配置幾個必要的文件
centos7-64搭建大數(shù)據(jù)環(huán)境單機,hadoop,chrome,大數(shù)據(jù)
(1)配置core-site.xml
vim ./core-site.xml

<configuration>

	<property>
                <name>fs.defaultFS</name>
                <value>hdfs://hadoopmaster:9000</value>
                <description>NameNode URI</description>
        </property>

	<property>
      		<name>hadoop.tmp.dir</name>
      		<value>/home/hadoop/hadoop/data</value>
    	</property>

    	<property>
      		<name>hadoop.http.staticuser.user</name>
      		<value>root</value>
    	</property>

    	<property>
      		<name>io.file.buffer.size</name>
      		<value>131073</value>
    	</property>

    	<property>
      		<name>hadoop.proxyuser.root.hosts</name>
      		<value>*</value>
    	</property>

    	<property>
      		<name>hadoop.proxyuser.root.groups</name>
      		<value>*</value>
    	</property>

</configuration>

(2)配置hdfs-site.xml
vim ./hdfs-site.xml

<configuration>

        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>

        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/home/hadoop/hadoop/data/dfs/name</value>
        </property>

        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/home/hadoop/hadoop/data/dfs/data</value>
        </property>

        <property>
                <name>dfs.permissions.enabled</name>
                <value>false</value>
        </property>

</configuration>

(3)配置mapred-site.xml
vim ./mapred-site.xml

<configuration>

	<property>
      		<name>mapreduce.framework.name</name>
      		<value>yarn</value>
    	</property>

    	<property>
      		<name>mapreduce.jobhistory.address</name>
      		<value>hadoopmaster:10020</value>
    	</property>

    	<property>
      		<name>mapreduce.jobhistory.webapp.address</name>
      		<value>hadoopmaster:19888</value>
    	</property>

    	<property>
      		<name>mapreduce.map.memory.mb</name>
      		<value>2048</value>
    	</property>

    	<property>
      		<name>mapreduce.reduce.memory.mb</name>
      		<value>2048</value>
    	</property>

	<property>
      		<name>mapreduce.application.classpath</name>
      		<value>/home/hadoop/hadoop/etc/hadoop:/home/hadoop/hadoop/share/hadoop/common/*:/home/hadoop/hadoop/share/hadoop/common/lib/*:/home/hadoop/hadoop/share/hadoop/hdfs/*:/home/hadoop/hadoop/share/hadoop/hdfs/lib/*:/home/hadoop/hadoop/share/hadoop/mapreduce/*:/home/hadoop/hadoop/share/hadoop/mapreduce/lib/*:/home/hadoop/hadoop/share/hadoop/yarn/*:/home/hadoop/hadoop/share/hadoop/yarn/lib/*</value>

    	</property>

</configuration>

(4)配置yarn-site.xml
vim ./yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->
<property>

     <name>yarn.resourcemanager.connect.retry-interval.ms</name>

     <value>20000</value>

   </property>

   <property>

     <name>yarn.resourcemanager.scheduler.class</name>

     <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>

   </property>

   <property>

     <name>yarn.nodemanager.localizer.address</name>

     <value>hadoopmaster:8040</value>

   </property>

   <property>

     <name>yarn.nodemanager.address</name>

     <value>hadoopmaster:8050</value>

   </property>

   <property>

     <name>yarn.nodemanager.webapp.address</name>

     <value>hadoopmaster:8042</value>

   </property>

  <property>

     <name>yarn.nodemanager.aux-services</name>

     <value>mapreduce_shuffle</value>

   </property>

   <property>

     <name>yarn.nodemanager.local-dirs</name>

     <value>/home/hadoop/hadoop/yarndata/yarn</value>

   </property>

   <property>

     <name>yarn.nodemanager.log-dirs</name>

     <value>/home/hadoop/hadoop/yarndata/log</value>

   </property>

   <property>

     <name>yarn.nodemanager.vmem-check-enabled</name>

     <value>false</value>

   </property>

</configuration>

(5)配置hadoop-env.sh
vim ./hadoop-env.sh
修改第54行

export JAVA_HOME=/usr/java/jdk1.8.0_341-amd64
centos7-64搭建大數(shù)據(jù)環(huán)境單機,hadoop,chrome,大數(shù)據(jù)
(6)配置workers
vim ./workers

[hadoop@hadoopmaster hadoop]$ vim ./workers
[hadoop@hadoopmaster hadoop]$ cat ./workers
hadoopmaster

11.初始化hadoop
進入/home/hadoop/hadoop/bin路徑
執(zhí)行:hadoop namenode -format
centos7-64搭建大數(shù)據(jù)環(huán)境單機,hadoop,chrome,大數(shù)據(jù)
12.Hadoop3 驗證
Hadoop 使用之前必須進行格式化,可以使用如下指令進行格式化:
hadoop namenode -format
如果在使用Hadoop的過程中出錯,或者Hadoop 無法正常啟動,可能需要重新格式化
重新格式化的流程步驟:
停止Hadoop
刪除Hadoop 下的data和logs文件夾
重新格式化
13.啟動hadoop
start-all.sh
查看進程
jps
centos7-64搭建大數(shù)據(jù)環(huán)境單機,hadoop,chrome,大數(shù)據(jù)

13.停止hadoop
stop-all.sh文章來源地址http://www.zghlxwxcb.cn/news/detail-828803.html

到了這里,關(guān)于Centos7部署hadoop(單機)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • CentOS7搭建hadoop集群

    CentOS7搭建hadoop集群

    說明: ? ? ? ? 1.準備三臺虛擬機,參考:CentOS7集群環(huán)境搭建(以3臺為例) ? ? ? ? 2.配置虛擬機間免密登陸:參考:CentOS7集群配置免密登錄 ? ? ? ? 3.虛擬機分別安裝jdk:參考:CentOS7集群安裝JDK1.8 ? ? ? ? 4.hadoop安裝包下載,下載地址 準備開始搭建hadoop集群,以下操作在第

    2024年02月09日
    瀏覽(22)
  • CentOS7下安裝ElasticSearch7.6.1詳細教程(單機、集群搭建)

    CentOS7下安裝ElasticSearch7.6.1詳細教程(單機、集群搭建)

    CentOS 7下安裝ElasticSearch7.6.1詳細教程 ElasticSearch客戶端Kibana7.6.1安裝教程 ElasticSearch分詞器IK安裝教程 Elasticsearch-head插件安裝教程 想要學習ElasticSearch技術(shù),需要在服務(wù)器搭建ElasticSearch環(huán)境。 CenOS:7; JDK:1.8; Elasticsearch:7.6.1; ES不能使用root用戶來啟動,必須使用普通用戶來

    2023年04月09日
    瀏覽(22)
  • Elasticsearch7.8.0版本入門——單機部署(linux環(huán)境-centos7)

    Elasticsearch7.8.0版本入門——單機部署(linux環(huán)境-centos7)

    1.1、下載地址 下載地址:https://www.elastic.co/cn/downloads/past-releases#elasticsearch 1.2、下載步驟 下載步驟如下所示: linux環(huán)境(centos7)安裝JDK11步驟圖解參考此博文:https://wwwxz.blog.csdn.net/article/details/128899399?spm=1001.2014.3001.5502 上傳安裝包到home目錄下 opt目錄下創(chuàng)建es文件夾 進入home目

    2024年02月06日
    瀏覽(24)
  • 大數(shù)據(jù)技術(shù)棧-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超詳細-小白注釋版)虛擬機安裝+平臺部署

    目錄 環(huán)境條件: 1、安裝虛擬機(已安裝好虛擬機的可跳轉(zhuǎn)至? 二、安裝JDK與Hadoop) (1)直接新建一臺虛擬機 (2)首次啟用虛擬機,進行安裝 一、集群前置環(huán)境搭建(三臺機器分別設(shè)置hostname、網(wǎng)卡(ip)配置、ssh免密登錄) 1、查看一下本機與虛擬機的網(wǎng)卡和ip信息 (1)

    2024年02月06日
    瀏覽(31)
  • Centos7 x86服務(wù)器一鍵部署ES集群/單機shell

    Centos7 x86服務(wù)器一鍵部署ES集群/單機shell

    ? ? ? ? 由于日常的實施工作中經(jīng)常用到單機或者集群的es,每次都手動部署感覺很麻煩,于是抽空寫了一個一鍵部署腳本,通過簡單指定集群名稱、節(jié)點ip、端口等幾個配置參數(shù)后自動部署es單機或者集群數(shù)據(jù)庫 該安裝包實現(xiàn)利用給定參數(shù)安裝單機版或者集群版es數(shù)據(jù)庫,指

    2023年04月11日
    瀏覽(28)
  • Centos7系統(tǒng)下搭建Hadoop 3.3.6

    Centos7系統(tǒng)下搭建Hadoop 3.3.6

    本次使用3臺服務(wù)器進行安裝Hadoop。其中服務(wù)器系統(tǒng)均為Centos7.6、Hadoop版本為3.3.6、jdk版本為1.8.0_371。 ################################################################################################ 此外,大數(shù)據(jù)系列教程還在持續(xù)的更新中(包括跑一些實例、安裝數(shù)據(jù)庫、spark、mapreduce、hive等),

    2024年02月06日
    瀏覽(21)
  • CentOS7搭建偽分布式Hadoop(全過程2023)

    CentOS7搭建偽分布式Hadoop(全過程2023)

    可以使用XFTP,用物理主機鏈接虛擬機的centos傳送java文件,或者直接去java官網(wǎng)下載文件,解壓。配置文件,啟動配置。 驗證java是否配置好 輸入: java javac java -version 修改六個配置文件hadoop-env.sh 啟動hadoop之前需要格式化(具體在出現(xiàn)的問題第六點) 驗證: 出現(xiàn)錯誤,解決和驗

    2024年02月08日
    瀏覽(62)
  • Centos7 + Hadoop 3.3.4 HA高可用集群部署

    目錄 一、集群規(guī)劃 二、主機環(huán)境準備 1、配置主機名 2、配置HOSTS 3、配置內(nèi)核參數(shù) ?4、配置Limits ?5、關(guān)閉防火墻 6、關(guān)閉SELINUX 7、修改時區(qū) ?8、修改中文支持 三、安裝JDK 四、創(chuàng)建Hadoop用戶 五、安裝Zookeeper 1、下載安裝 2、配置zoo.cfg 3、配置myid 4、啟動/查看/停止服務(wù) 六、安

    2024年02月15日
    瀏覽(30)
  • Centos7原生hadoop環(huán)境,搭建Impala集群和負載均衡配置

    Centos7原生hadoop環(huán)境,搭建Impala集群和負載均衡配置

    Impala集群包含一個Catalog Server (Catalogd)、一個Statestore Server (Statestored) 和若干個Impala Daemon (Impalad)。Catalogd主要負責元數(shù)據(jù)的獲取和DDL的執(zhí)行,Statestored主要負責消息/元數(shù)據(jù)的廣播,Impalad主要負責查詢的接收和執(zhí)行。 Impalad又可配置為coordinator only、 executor only 或coordinator and exe

    2024年02月04日
    瀏覽(50)
  • 三臺CentOS7.6虛擬機搭建Hadoop完全分布式集群(一)

    三臺CentOS7.6虛擬機搭建Hadoop完全分布式集群(一)

    這個是筆者大學時期的大數(shù)據(jù)課程使用三臺CentOS7.6虛擬機搭建完全分布式集群的案例,已成功搭建完全分布式集群,并測試跑實例。 1.1安裝完虛擬機發(fā)現(xiàn)沒有sudo命令和hadoop用戶執(zhí)行命令失敗 我在安裝CentOS 7.6虛擬機后,我發(fā)現(xiàn)不能執(zhí)行sudo命令,同時hadoop用戶執(zhí)行命令失敗。

    2024年02月03日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包