国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

開源大數(shù)據(jù)集群部署(二)集群基礎環(huán)境實施準備

這篇具有很好參考價值的文章主要介紹了開源大數(shù)據(jù)集群部署(二)集群基礎環(huán)境實施準備。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

作者:櫰木

環(huán)境準備

本次使用到的二進制軟件包目錄為:系統(tǒng)初始化前提是操作系統(tǒng)已完成安裝、各個主機之間網(wǎng)絡互通,系統(tǒng)常用命令已安裝,本默認這些前提條件已具備,不在闡述。

1 主機環(huán)境初始化

安裝centos系統(tǒng)完成后需要對主機進行初始化配置和驗證工作,在所有主機上(hd1.dtstack.com-hd3)均要進行操作,并按照對應hosts修改主機名:
(主機名必須為xxx.xxx.com 匹配freeipa安裝需求)
(1) 主機配置映射(操作權限r(nóng)oot)

$ cat>>/etc/hosts <<EOF
172.16.104.226 hd1.dtstack.com
172.16.106.252 hd2.dtstack.com
172.16.107.127 hd3.dtstack.com
172.16.106.165 hd.dtstack.com
EOF

(2)關閉防火墻&selinux(操作權限r(nóng)oot)

$ systemctl stop firewalld
$ systemctl disable firewalld
$ setenforce 0 && sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config

(3) 創(chuàng)建集群系統(tǒng)用戶(操作權限r(nóng)oot)

系統(tǒng)用戶 屬組 用途
hadoop hadoop hadoop集群用戶
mysql hadoop mysql數(shù)據(jù)庫用戶
hdfs hadoop hadoop集群用戶
trino hadoop presto集群用戶
prometheus prometheus 監(jiān)控平臺用戶
grafana grafana 監(jiān)控平臺用戶
zookeeper zookeeper zk集群用戶
hive hadoop hive組件用戶
yarn hadoop hadoop集群用戶

創(chuàng)建hadoop集群所需用的的用戶和用戶組
創(chuàng)建示例如下:

[root@hd1.dtstack.com ~]$ remote_op.sh "groupadd hadoo p"
[root@hd1.dtstack.com ~]$ remote_op.sh "useradd hive -G hadoop"
[root@hd1.dtstack.com ~]$ remote_op.sh "echo hive | passwd --stdin hive"

(4)安裝java環(huán)境(操作權限r(nóng)oot)
本次中java軟件包安裝目錄在/root/bigdata

$ cd /opt/bigdata
$ tar -zvxf zulu11.60.19-ca-jdk11.0.17-linux_x64.tar.gz -C /opt
tar -zxvf jdk-8u281-linux-x64.tar.gz
ln -s  /opt/jdk1.8.0_281  /opt/java

2 配置ssh互信

ssh互信配置(操作權限hadoop)
在集群系統(tǒng) hd1.dtstack.com-hd3.dtstack.com共3臺設備上執(zhí)行如下命令:

$ cd $HOME  #在hadoop當前目錄下創(chuàng)建ssh互信
$ ssh-keygen -t rsa   #一路回車,不需要輸入任何信息

將hd1.dtstack.com公鑰添加到認證文件中,在hd1.dtstack.com主機root用戶當前家目錄下執(zhí)行如下命令:
生產(chǎn)各自的keytab文件

ssh-keygen -t rsa

用ssh-copy-id 把公鑰復制到遠程主機上,命令也要(以下命令ip需要填寫所有節(jié)點ip并在每個節(jié)點均執(zhí)行)

ssh-copy-id -i  .ssh/id_rsa.pub root@xxx.xxx.xxx

以上命令在三個階段均要執(zhí)行

ssh互信驗證
hd1.dtstack.com-hd3.dtstack.com主機上互相執(zhí)行ssh登錄命令驗證,如下:

[hadoop@hd1.dtstack.com ~]$ ssh hd2.dtstack.com

驗證截圖如下:
開源大數(shù)據(jù)集群部署(二)集群基礎環(huán)境實施準備
ssh命令執(zhí)行過去,無報錯表示ssh互信配置成功。
root和hdfs以及yarn權限ssh互信
同理操作,配置主機root權限和hdfs以及yarn權限全主機互信。

3 統(tǒng)一環(huán)境變量配置

環(huán)境變量分兩個文件:/etc/profile和各用戶下.bashrc(bash),建議/etc/profile根據(jù)規(guī)劃好的目錄結構,統(tǒng)一設置環(huán)境變量。本次設置將hadoop,zookeeper,hive,java環(huán)境變量整體設置完成

[root@hd1.dtstack.com ~]# cat >>/etc/profile.d/bigdata.sh<<EOF
#!/bin/bash
export HADOOP_HOME=/opt/hadoop
export HBASE_HOME=/opt/hbase
export SPARK_HOME=/opt/spark
export SPARK_CONF_DIR=/opt/spark/conf
export HBASE_CONF_DIR=/opt/hbase/conf
export HBASE_LIB=/opt/hbase/lib
export TEZ_HOME=/opt/tez
export TEZ_CONF_DIR=/opt/tez/conf
export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$TEZ_HOME/*:$TEZ_HOME/lib/*
export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"
export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native
export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop
export HIVE_HOME=/opt/hive
export HIVE_CONF_DIR=/opt/hive/conf
export PATH=$PATH:$HIVE_HOME/bin
export ZK_HOME=/opt/zookeeper
#export YARN_CONF_DIR=/opt/hadoop/etc/hadoop
export JAVA_HOME="/opt/java"
export PATH=$HADOOP_HOME/bin:$JAVA_HOME/bin:$ZK_HOME/bin:/opt/mysql/bin:$PATH
export HADOOP_CLASSPATH=`hadoop classpath`

EOF

4 系統(tǒng)調優(yōu)

hd1.dtstack.com-hd3.dtstack.com所有機器上都要執(zhí)行,且以root權限執(zhí)行
調整swap、內存分配、網(wǎng)絡連接參數(shù)

$ cat>>/etc/sysctl.conf <<EOF
#避免使用swap
vm.swappiness = 1
#修改內存分配策略
vm.overcommit_memory=2
vm.overcommit_ratio=90
#網(wǎng)絡連接上限
net.core.somaxcomm=32768
EOF

增大同時打開文件描述符

$ cat>>/etc/security/limits.conf <<EOF
hadoop  soft   nofile   32768
hadoop hard nofile 65536
hadoop soft   nproc   32768
hadoop hard nproc 65536
EOF

關閉THP

$ cat>>/etc/rc.local <<EOF
if test -f /sys/kernel/mm/transparent_hugepage/enabled; then
   echo never > /sys/kernel/mm/transparent_hugepage/enabled
fi
if test -f /sys/kernel/mm/transparent_hugepage/defrag; then
   echo never > /sys/kernel/mm/transparent_hugepage/defrag
fi
EOF

5 NTP服務配置

安裝
在hd1.dtstack.com-hd3.dtstack.com各個主機上root權限下執(zhí)行:

$ yum install -y ntp

配置時間同步服務端
在hd1.dtstack.com主機root權限下執(zhí)行

ntp配置

$ cat /etc/ntp.conf|grep -v '#'|grep -v ^$
driftfile /var/lib/ntp/drift     #存放記錄時間誤差
restrict default nomodify notrap nopeer noquery   #默認拒絕所有來源訪問
restrict 127.0.0.1  #開放本機的任何訪問
restrict ::1
restrict 172.16.104.0 mask 255.255.255.0 nomodify notrap  #允許104網(wǎng)段機器參與ntp同步
includefile /etc/ntp/crypto/pw    
keys /etc/ntp/keys
server  172.16.104.226    #時間同步服務器
server  127.127.1.0       #當上面時間不可用時,以本地時間作為時間服務
fudge   127.0.0.1 stratum 10
disable monitor

說明:

  • server 172.16.104.226表示內網(wǎng)時間同步服務器,其余機器都從這臺同步時間
  • server 172.16.104.226可以替換成其他時間服務中心IP(看生產(chǎn)環(huán)境配置)

ntp服務啟動和驗證
啟動

service ntpd start

驗證

service ntpd status

開源大數(shù)據(jù)集群部署(二)集群基礎環(huán)境實施準備
Active狀態(tài)為running表示服務啟動成功

配置時間同步客戶端
在hd2.dtstack.com主機root權限下執(zhí)行

配置時間同步服務源

[root@hd2.dtstack.com ~]# cp /etc/ntp.conf /etc/ntp.conf.bak
[root@hd2.dtstack.com ~]# cat >/etc/ntp.conf<<EOF
driftfile /var/lib/ntp/drift
restrict 127.0.0.1
restrict ::1
server 172.16.104.226
restrict 172.16.104.226 nomodify notrap noquery
server  127.127.1.0     # local clock
fudge   127.127.1.0 stratum 10
includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys
EOF

手動同步時間(建議第一次手動同步)

$ ntpdate -u 172.16.104.226

開源大數(shù)據(jù)集群部署(二)集群基礎環(huán)境實施準備
拉起同步服務

service ntpd start

檢查方法同上
同步到其他節(jié)點(hd3.dtstack.com、hd2.dtstack.com)

[root@hd2.dtstack.com ~]# scp /etc/ntp.conf root@hd2.dtstack.com:/etc/

啟動其余主機(hd3.dtstack.com)上ntpd服務

[root@hd2.dtstack.com ~]# ssh hd3.dtstack.com 'service ntpd start'
[root@hd2.dtstack.com ~]# ssh hd2.dtstack.com'service ntpd start'

檢查其余機器(hd3.dtstack.com)上ntpd服務啟動狀態(tài)

[root@hd2.dtstack.com ~]# ssh hd3.dtstack.com 'service ntpd status'
[root@hd2.dtstack.com ~]#ssh hd2.dtstack.com'service ntpd start''

檢查連接情況

[root@hd2.dtstack.com ~]# ntpq -p

開源大數(shù)據(jù)集群部署(二)集群基礎環(huán)境實施準備

6 自動化同步腳本

配置文件同步腳本【1】remote_scp.sh

[root@hd1.dtstack.com software]# cat /root/bin/remote_scp.sh
#!/bin/bash
for i in hd{2..3}
do
 #echo $i
 if [  -d $1  ]
then
 echo -e '\033[33m 當前主機為'$i',傳輸文件為'$1'\033[0m'
 scp -rp $1 $i:$2
else
 #echo "當前節(jié)點為$,傳輸文件為$1"
 echo -e '\033[33m 當前主機為'$i',傳輸文件為'$1'\033[0m'
 scp $1 $i:$2
fi
done
status=`echo $?`
if [ $status -eq 0 ]
then
 echo -e "$1文件傳輸完成"
else
 echo -e "請檢查傳入?yún)?shù)"
fi

使用案例:
格式:remote_scp.sh 源目錄 目標目錄
開源大數(shù)據(jù)集群部署(二)集群基礎環(huán)境實施準備
說明:將test.log 分發(fā)到hd1.dtstack.com-hd3.dtstack.com/root目錄下
配置文件同步腳本【2】remote_op.sh

[root@hd1.dtstack.com ~]# cat /root/bin/remote_op.sh
#!/bin/bash
for i in hd2.dtstack.com hd3.dtstack.com
do
  echo  -e '\033[33m 當前主機為'$i'\033[0m'
  ssh $i $1
done

使用案例:
格式:remote_op.sh “執(zhí)行命令內容”
開源大數(shù)據(jù)集群部署(二)集群基礎環(huán)境實施準備

7 軟件包倉庫

建議在安裝hadoop集群前,提前將所需安裝的二進制軟件包,統(tǒng)一存放軟件包倉庫中。
本次使用的軟件包都在主機hd1.dtstack.com上/root/bigdata下

8 keytab生成腳本

在所有節(jié)點均需執(zhí)行此操作
/root/bigdata
vi getkeytabs.sh

set -x
 
CMKEYTAB="/data/kerberos/apache-user.keytab"
CMUSER="apache-user"
REALM="DTSTACK.COM"
IPASERVER="hd.dtstack.com"
 
hosts=`hostname`
DEST="$1"
FULLPRINC="$2"/${hosts}@${REALM}
USER=$2
# Passwd based kinit
#echo PASSWORD | kinit $CMUSER@$REALM
 
# Or per keytab (keytab needs to be generated before)
kinit -k -t $CMKEYTAB $CMUSER@$REALM
 
PRINC=$( echo $FULLPRINC | sed "s/\@$( echo $REALM )//" )
 
echo $PRINC

echo Retrieving keytab for $FULLPRINC for $DEST
 
echo Checking for existing service principle
if ipa service-find $FULLPRINC; then
echo Service principle found
else
echo Service principle not created, creating
ipa service-add $FULLPRINC --pac-type=NONE
fi
 
echo Ensuring service allows
ipa service-allow-create-keytab --users=$CMUSER $FULLPRINC
ipa service-allow-retrieve-keytab --users=$CMUSER $FULLPRINC
 
if ipa service-show $FULLPRINC | grep 'Keytab' | grep 'False'; then
echo Creating keytab for $FULLPRINC for $DEST
ipa-getkeytab -s $IPASERVER -p $PRINC -k $DEST -e rc4-hmac,aes256-cts,aes128-cts
else
echo Retrieving keytab for $FULLPRINC for $DEST
ipa-getkeytab -r -s $IPASERVER -p $PRINC -k $DEST
fi

chmod 644 $DEST
chown $USER:$USER $DEST
 
kdestroy
 
exit 0;

備注

上文中$ 表示系統(tǒng)命令解釋器開始符號,且表示所有機器都要執(zhí)行,如出現(xiàn)[hadoop@hd1.dtstack.com ~]$表示,只在hd1.dtstack.com主機hadoop用戶下執(zhí)行文章來源地址http://www.zghlxwxcb.cn/news/detail-779912.html

到了這里,關于開源大數(shù)據(jù)集群部署(二)集群基礎環(huán)境實施準備的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 大數(shù)據(jù)開源框架環(huán)境搭建(四)——HDFS完全分布式集群的安裝部署

    大數(shù)據(jù)開源框架環(huán)境搭建(四)——HDFS完全分布式集群的安裝部署

    前言:本實驗的所有路徑均為本人計算機路徑,有些路徑需要看自己的,跟著我的一起做最好。普通用戶下大部分命令需要加sudo,root模式下不用。如果怕麻煩,直接在root用戶下操作。 目錄 實驗環(huán)境: 實驗步驟: 一、配置NAT網(wǎng)絡?,分配靜態(tài)IP地址 1.打開VMware,選擇編輯,

    2024年02月05日
    瀏覽(37)
  • 【大數(shù)據(jù)】Doris 的集群規(guī)劃和環(huán)境準備

    Doris 作為一款開源的 MPP 架構 OLAP 數(shù)據(jù)庫,能夠運行在絕大多數(shù)主流的商用服務器上。為了能夠充分運用 MPP 架構的并發(fā)優(yōu)勢,以及 Doris 的高可用特性,我們建議 Doris 的部署遵循以下需求。 Linux 系統(tǒng) 版本 CentOS 7.1 7.1 7.1 及以上 Ubuntu 16.04 16.04 16.04 及以上 操作系統(tǒng)安裝要求 ?

    2024年02月03日
    瀏覽(20)
  • k8s集群中部署項目之數(shù)據(jù)庫準備

    k8s集群中部署項目之數(shù)據(jù)庫準備

    同理 同理 同理 同理 同理

    2024年02月07日
    瀏覽(16)
  • 【Linux系統(tǒng)基礎】(5)在Linux上集群化環(huán)境前置準備及部署Zookeeper、Kafka軟件詳細教程

    【Linux系統(tǒng)基礎】(5)在Linux上集群化環(huán)境前置準備及部署Zookeeper、Kafka軟件詳細教程

    在前面,我們所學習安裝的軟件,都是以單機模式運行的。 后續(xù),我們將要學習大數(shù)據(jù)相關的軟件部署,所以后續(xù)我們所安裝的軟件服務,大多數(shù)都是以集群化(多臺服務器共同工作)模式運行的。 所以,在當前小節(jié),我們需要完成集群化環(huán)境的前置準備,包括創(chuàng)建多臺虛

    2024年02月03日
    瀏覽(27)
  • 數(shù)據(jù)分片概述、環(huán)境準備、部署MyCAT服務、全局表、分片表、ER表

    數(shù)據(jù)分片概述、環(huán)境準備、部署MyCAT服務、全局表、分片表、ER表

    1.1 問題 把主機mysql60 配置為 MySQL59 的從服務器 把主機mysql62 配置為 MySQL61 的從服務器 把主機mycat63 配置為mycat服務器 客戶端192.168.88.50訪問mycat服務 1.2 方案 準備6臺虛擬機,具體配置如表-1 1.3 步驟 實現(xiàn)此案例需要按照如下步驟進行。 步驟一:把MySQL60配置為MySQL59的從服務器

    2024年01月19日
    瀏覽(23)
  • 開源大數(shù)據(jù)集群部署(十一)Ranger 集成Hadoop集群

    開源大數(shù)據(jù)集群部署(十一)Ranger 集成Hadoop集群

    作者:櫰木 1、節(jié)點選擇 部署在兩個namenode節(jié)點 cd /opt/bigdata tar -xzvf ranger-2.3.0-hdfs-plugin.tar.gz -C /opt/ cd /opt/ranger-2.3.0-hdfs-plugin vim install.properties ranger hdfs初始化 初始化完成后會在/opt/hadoop/etc/hadoop目錄下生成3個文件 在rangeradmin頁面上進行配置 servicename必須和install.properties中的R

    2024年02月22日
    瀏覽(25)
  • 開源大數(shù)據(jù)集群部署(六)Keytab文件生成

    開源大數(shù)據(jù)集群部署(六)Keytab文件生成

    作者:櫰木 Keytab文件用于在不輸入密碼的情況下對主體(用戶或服務)進行身份驗證。以下是創(chuàng)建Kerberos身份驗證的步驟。 除了使用明文密碼登錄之外,Kerberos還可以使用keytab密碼文件登陸,現(xiàn)在為testcuser創(chuàng)建它的keytab文件 這樣就在當前執(zhí)行目錄下生成了testcuser.keytab文件 通

    2024年01月24日
    瀏覽(17)
  • 開源大數(shù)據(jù)集群部署(十四)Ranger集成Hbase

    開源大數(shù)據(jù)集群部署(十四)Ranger集成Hbase

    作者:櫰木 在hd1.dtstack.com主機上執(zhí)行 在hmaster和back master上進行安裝和執(zhí)行 解壓ranger-2.3.0-hbase-plugin 配置ranger hbase插件的install.properties 初始化ranger hbase 重啟hbase服務 Ranger admin頁面配置hbase 訪問地址:http://hd1.dtstack.com:6080/ 用戶密碼:admin/rangerAdmin123 測試連通性,連接成功后保

    2024年03月21日
    瀏覽(25)
  • Ubuntu基礎配置+Docker配置和使用+容器化centos7大數(shù)據(jù)環(huán)境準備

    Ubuntu基礎配置+Docker配置和使用+容器化centos7大數(shù)據(jù)環(huán)境準備

    環(huán)境:ubuntu 18.04 大數(shù)據(jù)技術與應用賽項平臺環(huán)境 安裝完Ubuntu之后,除了需要新建用戶、設置密碼之外,我們還要設置root密碼,雖然Ubuntu默認有root超級管理員賬戶,但是具體的密碼我們可以自行設置 1.1設置root密碼: 1.啟動Ubuntu 啟動Ubuntu,有圖形界面的,啟動終端即可 2.終端

    2024年01月17日
    瀏覽(50)
  • 開源大數(shù)據(jù)集群部署(五)Freeipa客戶端部署及配置(kerberos+ldap)

    開源大數(shù)據(jù)集群部署(五)Freeipa客戶端部署及配置(kerberos+ldap)

    作者:櫰木 在FreeIPA(Free Identity, Policy, and Audit)環(huán)境中,部署和配置客戶端節(jié)點是連接整個系統(tǒng)的關鍵步驟。本文將介紹如何在客戶端節(jié)點上安裝和配置FreeIPA客戶端,包括安裝IPA-Client、執(zhí)行ipa-client-install等關鍵步驟。同時,由于部署過程中可能出現(xiàn)一些常見的問題,我們還

    2024年01月20日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包