国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【hive】單節(jié)點(diǎn)搭建hadoop和hive

這篇具有很好參考價(jià)值的文章主要介紹了【hive】單節(jié)點(diǎn)搭建hadoop和hive。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、背景

需要使用hive遠(yuǎn)程debug,嘗試使用無hadoop部署hive方式一直失敗,無果,還是使用有hadoop方式。最終查看linux內(nèi)存占用6GB,還在后臺運(yùn)行docker的mysql(bitnami/mysql:8.0),基本滿意。

版本選擇:
(1)hive2 hadoop2 和hive3和hadoop3需要搭配使用,不能像chd的hive2和hadoop3搭配使用,容易出現(xiàn)問題。
本文選擇版本,都是官網(wǎng)推薦的版本:
hadoop-3.3.6.tar.gz
apache-hive-3.1.3-bin.tar.gz

二、創(chuàng)建用戶和組

# hadoop縮寫hdp
useradd hdp
groupadd hadoop

后邊啟動(dòng)hadoop不能用root用戶。

三、配置集群(單節(jié)點(diǎn))互信

su hdp && cd .ssh
ssh-keygen
# 一路回車
cat id_rsa.pub >> authorized_keys
vi /etc/hosts
# localhost 行后追加 hdp 

# 配置后測試下
ssh hdp 
ssh localhost

四、hadoop搭建

hadoop官網(wǎng)
下載安裝包
本文hadoop安裝路徑:/opt/hadoop-3.3.6

# 解壓
tar -xvf hadoop-3.3.6.tar.gz 
# 改名字
mv ... hadoop-3.3.6

# 加個(gè)軟連接
cd hadoop-3.3.6
ln -s etc/hadoop conf

修改hadoop-env.sh

export HADOOP_LOG_DIR=${HADOOP_HOME}/logs
export HADOOP_CLIENT_OPTS="-Xmx2048m $HADOOP_CLIENT_OPTS"

修改core-site.xml,添加:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hdp:9000</value>
        <description>hdfs內(nèi)部通訊訪問地址</description>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <!--臨時(shí)文件目錄需要自己建立-->
        <value>/var/hadoop/tmp</value>
    </property>
    <property>
        <name>hadoop.proxyuser.hadoop.hosts</name>
        <value>*</value>
    </property>
    <property>
        <name>hadoop.proxyuser.hadoop.groups</name>
        <value>*</value>
</property>
</configuration>

修改hdfs-site.xml,添加:

<configuration>
  <property>
      <name>dfs.namenode.name.dir</name>
      <value>/var/hadoop/data/namenode</value>
      <description> namenode 存放name table(fsimage)本地目錄需要修改,如果沒有需要自己創(chuàng)建文件目錄)</description>
  </property>
  <property>
      <name>dfs.datanode.data.dir</name>
      <value>/var/hadoop/data/datanode</value>
      <description>datanode存放block本地目錄(需要修改,如果沒有需要自己創(chuàng)建文件目錄)</description>
  </property>
  <property>
          <!--由于只有一臺機(jī)器,hdfs的副本數(shù)就指定為1-->
          <name>dfs.replication</name>
          <value>1</value>
   </property>
</configuration>

修改yarn-site.xml

<configuration>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>2048</value>
</property>
<property>
        <name>yarn.scheduler.minimum-allocation-mb</name>
        <value>2048</value>
</property>
<property>
        <name>yarn.nodemanager.vmem-pmem-ratio</name>
        <value>2.1</value>
</property>
<property>
        <name>mapred.child.java.opts</name>
        <value>-Xmx1024m</value>
</property>
<property>
        <name>yarn.application.classpath</name>
        <value>/opt/hadoop-3.3.6/conf:/opt/hadoop-3.3.6/share/hadoop/common/lib/*:/opt/hadoop-3.3.6/share/hadoop/common/*:/opt/hadoop-3.3.6/share/hadoop/hdfs:/opt/hadoop-3.3.6/share/hadoop/hdfs/lib/*:/opt/hadoop-3.3.6/share/hadoop/hdfs/*:/opt/hadoop-3.3.6/share/hadoop/mapreduce/*:/opt/hadoop-3.3.6/share/hadoop/yarn:/opt/hadoop-3.3.6/share/hadoop/yarn/lib/*:/opt/hadoop-3.3.6/share/hadoop/yarn/*</value>
</property>
</configuration>

yarn.application.classpath是使用hadoop classpath生成的,一定要有此配置。

修改mapred-site.xml,添加:

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
touch init-env.sh

添加如下內(nèi)容,本文使用的hadoop安裝路徑的是:/opt/hadoop-3.3.6

#!/bin/bash
# 移除老的環(huán)境變量
# 如果本機(jī)已經(jīng)安裝過hadoop一定要注意,將舊hadoop環(huán)境變量移除,可以使用printenv 或者env 查看已經(jīng)有的環(huán)境變量
unset HADOOP_HDFS_HOME
unset HADOOP_YARN_HOME
unset HADOOP_CLASSPATH
unset HADOOP_MAPRED_HOME
unset HADOOP_HOME
unset HADOOP_CONF_DIR
# 添加新的環(huán)境變量
export HADOOP_HOME=/opt/hadoop-3.3.6
export HADOOP_CONF_DIR=$HADOOP_HOME/conf
export HADOOP_LOG_DIR=/var/hadoop/log
export PATH=$HADOOP_HOME/bin:$PATH

加載環(huán)境變量

source init-env.sh
# 測試下:
env
echo $HADOOP_HOME
echo $HADOOP_CONF_DIR

啟動(dòng)和停止hadoop

chown -R hdp:hadoop $HADOOP_HOME
# 必須使用非root賬戶登錄
su hdp
$HADOOP_HOME/sbin/start-all.sh
# 使用jps查看下java進(jìn)程情況:
NameNode
ResourceManager
NodeManager
SecondaryNameNode
DataNode

# 停止
$HADOOP_HOME/sbin/stop-all.sh

# 可以在console查看日志的腳本,即單獨(dú)啟動(dòng)yarn或者h(yuǎn)dfs:
start-dfs.sh
start-yarn.sh

hdfs web
yarn web
使用命令行確認(rèn)下hdfs和yarn是否可用:

hdfs dfs -mkdir /tmp
hdfs dfs -ls /
yarn application -list

六、hive搭建

本文hive安裝位置:/opt/hive-3.1.3/
hive官網(wǎng)

tar -xvf apache-hive-3.1.3-bin.tar.gz
mv ... hive-3.1.3
cd hive-3.1.3 && mkdir logs
cp hive-env.sh.template hive-env.sh
touch hive-site.xml
# 不手動(dòng)添加的話,hive不打印日志?。?!
cp hive-log4j2.properties.template hive-log4j2.properties
cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties

修改hive-env.sh

HADOOP_HOME=/opt/hadoop-3.3.6

修改hive-site.xml,添加:
本文hive使用mysql作為metastore,提前在mysql中創(chuàng)建好數(shù)據(jù)庫hive3_local

<!-- 數(shù)據(jù)庫連接JDBC的URL地址,&amp; 是urlencode后的表達(dá)-->
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://mysql-ip:3306/hive3_local?createDatabaseIfNotExist=true&amp;useSSL=false</value>
</property>
    <!-- 數(shù)據(jù)庫連接driver,即MySQL驅(qū)動(dòng)-->
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.cj.jdbc.Driver</value>
</property>
    <!-- MySQL數(shù)據(jù)庫用戶名-->
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
</property>
    <!-- MySQL數(shù)據(jù)庫密碼-->
<property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>密碼</value>
</property>
<property>
    <!--hive表在hdfs的位置-->
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
</property>
<property>
    <name>hive.security.authorization.enabled</name>
    <value>false</value>
</property>
<property>
    <name>hive.security.authorization.createtable.owner.grants</name>
    <value>ALL</value>
</property>
<property>
    <name>hive.server2.enable.doAs</name>
    <value>false</value>
</property>
touch init-env.sh

添加如下內(nèi)容

#!/bin/bash
export HIVE_HOME=/opt/hive-3.1.3
export HIVE_CONF_DIR=$HIVE_HOME/conf
export PATH=$HIVE_HOME/bin:$PATH

加載hive環(huán)境變量。

source init-env.sh

初始化metastore
把數(shù)據(jù)庫jdbc驅(qū)動(dòng)復(fù)制到lib目錄下,本文是mysql-connector-j-8.0.31.jar

# 進(jìn)入hive的bin目錄
./schematool -dbType mysql -initSchema

配置hive啟動(dòng)腳本

touch start-all.sh

添加如下內(nèi)容:

#!/bin/bash
nohup $HIVE_HOME/bin/hive --service metastore &
nohup $HIVE_HOME/bin/hive --service hiveserver2 &

啟動(dòng)hive,注:一定要確保hadoop已經(jīng)成功啟動(dòng),才能啟動(dòng)hive,否則連接hive beeline會(huì)卡死但是不報(bào)錯(cuò)!?。?/code>

chown -R hdp:hadoop $HIVE_HOME
su hdp
source /opt/hadoop-3.3.6/conf/init-env.sh
source /opt/hive-3.1.3/conf/init-env.sh
sh start-all.sh

# 查看進(jìn)程,可以看到兩個(gè)RunJar。
jps
153216 RunJar
152044 RunJar

配置hive停止腳本

touch stop-all.sh

添加如下內(nèi)容:

jps | grep RunJar | awk '{print $1}' | xargs kill -9

判斷l(xiāng)inux端口使用已經(jīng)監(jiān)聽:

# hive的metastore端口號9083
netstat -ntulp |grep 9083
# 出現(xiàn)端口信息,說明metastore已經(jīng)啟動(dòng)成功了。
(Not all processes could be identified, non-owned process info
 will not be shown, you would have to be root to see it all.)
tcp6       0      0 :::9083                 :::*                    LISTEN      152044/java
# 使用如上獲取的ip獲取具體進(jìn)程啟動(dòng)命令:
ps -ef | grep 152044
hdp      152044  36213  0 4月09 pts/1   00:01:01 /usr/hdp/3.0.1.0-187/jdk1.8/bin/java -Dproc_jar -Xmx2048m -Dproc_metastore -Dlog4j2.formatMsgNoLookups=true -Dlog4j.configurationFile=hive-log4j2.properties -Djava.util.logging.config.file=/opt/hive-3.1.3/conf/parquet-logging.properties -Dyarn.log.dir=/opt/hadoop-3.3.6/logs -Dyarn.log.file=hadoop.log -Dyarn.home.dir=/opt/hadoop-3.3.6 -Dyarn.root.logger=INFO,console -Djava.library.path=/opt/hadoop-3.3.6/lib/native -Dhadoop.log.dir=/opt/hadoop-3.3.6/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/opt/hadoop-3.3.6 -Dhadoop.id.str=hdp -Dhadoop.root.logger=INFO,console -Dhadoop.policy.file=hadoop-policy.xml -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.util.RunJar /opt/hive-3.1.3/lib/hive-metastore-3.1.3.jar org.apache.hadoop.hive.metastore.HiveMetaStore


# hive的hiveserver2端口號10000
netstat -ntulp | grep 10000
# 出現(xiàn)端口信息,說明hiveserver已經(jīng)啟動(dòng)成功了。
(Not all processes could be identified, non-owned process info
 will not be shown, you would have to be root to see it all.)
tcp6       0      0 :::10000                :::*                    LISTEN      152045/java
# 使用如上獲取的ip獲取具體進(jìn)程啟動(dòng)命令:
ps -ef | grep 152045
hdp      152045  36213  0 4月09 pts/1   00:04:30 /usr/hdp/3.0.1.0-187/jdk1.8/bin/java -Dproc_jar -Xmx2048m -Dproc_hiveserver2 -Dlog4j2.formatMsgNoLookups=true -Dlog4j.configurationFile=hive-log4j2.properties -Djava.util.logging.config.file=/opt/hive-3.1.3/conf/parquet-logging.properties -Djline.terminal=jline.UnsupportedTerminal -Dyarn.log.dir=/opt/hadoop-3.3.6/logs -Dyarn.log.file=hadoop.log -Dyarn.home.dir=/opt/hadoop-3.3.6 -Dyarn.root.logger=INFO,console -Djava.library.path=/opt/hadoop-3.3.6/lib/native -Dhadoop.log.dir=/opt/hadoop-3.3.6/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/opt/hadoop-3.3.6 -Dhadoop.id.str=hdp -Dhadoop.root.logger=INFO,console -Dhadoop.policy.file=hadoop-policy.xml -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.util.RunJar /opt/hive-3.1.3/lib/hive-service-3.1.3.jar org.apache.hive.service.server.HiveServer2

beeline鏈接hive

beeline
# 輸入`!verbose`,設(shè)置打印日志verbose
!verbose
# 使用hive用戶登錄,不輸入密碼(空密碼),直接回車。
!connect jdbc:hive2://localhost:10000 hive

七、參考文檔

hadoop和hive單機(jī)部署
Hive2 新版連接工具 beeline 詳解
找不到或無法加載主類 org.apache.hadoop.mapreduce.v2.app.MRAppMaster
DBeaver連接Hive錯(cuò)誤總結(jié)
User: hadoop is not allowed to impersonate anonymous
return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask
hive設(shè)置權(quán)限
hive 入門 修改hive日志路徑
Hadoop常見端口號及配置文件文章來源地址http://www.zghlxwxcb.cn/news/detail-846427.html

到了這里,關(guān)于【hive】單節(jié)點(diǎn)搭建hadoop和hive的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • docker搭建hadoop和hive集群

    docker搭建hadoop和hive集群

    安裝docker教程 https://www.runoob.com/docker/centos-docker-install.html 只要在終端輸入: 后出現(xiàn)如下圖的內(nèi)容就證明安裝docker成功了 在終端輸入: 在終端輸入:sudo docker images,可以看到剛剛拉取的兩個(gè)鏡像 每次執(zhí)行docker語句都要在前面加sudo,比較麻煩,直接將hadoop用戶加入docker用戶組

    2024年02月01日
    瀏覽(17)
  • 分布式搭建(hadoop+hive+spark)

    hadoop-master 192.168.43.141 hadoop-slave1 192.168.43.142 hadoop-slave2 192.168.43.143 鏈接:https://pan.baidu.com/s/1OwKLvZAaw8AtVaO_c6mvtw?pwd=1234 提取碼:1234 MYSQL5.6:wget http://repo.mysql.com/mysql-community-release-el6-5.noarch.rpm Scale:wget https://downloads.lightbend.com/scala/2.12.4/scala-2.12.4.tgz

    2024年02月12日
    瀏覽(21)
  • 單機(jī)搭建hadoop環(huán)境(包括hdfs、yarn、hive)

    單機(jī)搭建hadoop環(huán)境(包括hdfs、yarn、hive)

    單機(jī)可以搭建偽分布式hadoop環(huán)境,用來測試和開發(fā)使用,hadoop包括: hdfs服務(wù)器, yarn服務(wù)器,yarn的前提是hdfs服務(wù)器, 在前面兩個(gè)的基礎(chǔ)上,課可以搭建hive服務(wù)器,不過hive不屬于hadoop的必須部分。 過程不要想的太復(fù)雜,其實(shí)挺簡單,這里用最糙最快最直接的方法,在我的單

    2024年02月20日
    瀏覽(25)
  • Hadoop 之 Hive 4.0.0-alpha-2 搭建(八)

    Hadoop 之 Hive 4.0.0-alpha-2 搭建(八)

    Hive 是基于 Hadoop 的數(shù)據(jù)倉庫工具,可以提供類 SQL 查詢能力 Hive 官網(wǎng) Hive 下載地址(自選版本) MySQL Java 驅(qū)動(dòng)下載 1.解壓并配置 HIVE 2.修改 hive-site.xml 初始化元數(shù)據(jù) 查看庫 Hive 3.修改 hadoop 的 core-site.xml 4.啟動(dòng) 1.Pom依賴 2.Yarm 配置文件 3.啟動(dòng)類 4.配置類 5.測試類 如果插入或查詢

    2024年02月14日
    瀏覽(19)
  • 大數(shù)據(jù)環(huán)境搭建 Hadoop+Hive+Flume+Sqoop+Azkaban

    大數(shù)據(jù)環(huán)境搭建 Hadoop+Hive+Flume+Sqoop+Azkaban

    Hadoop:3.1.0 CentOS:7.6 JDK:1.8 這里網(wǎng)上教程很多,就不貼圖了 【內(nèi)存可以盡量大一些,不然Hive運(yùn)行時(shí)內(nèi)存不夠】 創(chuàng)建tools目錄,用于存放文件安裝包 將Hadoop和JDK的安裝包上傳上去 創(chuàng)建server目錄,存放解壓后的文件 解壓jdk 配置環(huán)境變量 配置免密登錄 配置映射,配置ip地址和

    2024年02月09日
    瀏覽(24)
  • 兩臺實(shí)體機(jī)器4個(gè)虛擬機(jī)節(jié)點(diǎn)的Hadoop集群搭建(Ubuntu版)

    兩臺實(shí)體機(jī)器4個(gè)虛擬機(jī)節(jié)點(diǎn)的Hadoop集群搭建(Ubuntu版)

    兩臺機(jī)器,每臺機(jī)器兩臺Ubuntu Ubuntu版本:ubuntu-22.04.3-desktop-amd64.iso 處理器數(shù)量2,每個(gè)處理器的核心數(shù)量2,總處理器核心數(shù)量4 單個(gè)虛擬機(jī)內(nèi)存8192MB(8G),最大磁盤大小30G 清華大學(xué)開源軟件鏡像站 https://mirrors.tuna.tsinghua.edu.cn/ubuntu-releases/22.04/ 虛擬機(jī)(VMware)安裝Linux(Ubun

    2024年02月08日
    瀏覽(40)
  • Hadoop 3.0.0的集群搭建和Hive 3.1.3的安裝

    Hadoop 3.0.0的集群搭建和Hive 3.1.3的安裝

    Hi,朋友們,我們又見面了,這一次我給大家?guī)淼氖荋adoop集群搭建及Hive的安裝。 說明一下,網(wǎng)上有很多的教程,為什么我還要水? 第一,大多數(shù)的安裝都是很順利的,沒有疑難解答。 第二,版本問題,網(wǎng)上的搭建在3以前的比較多。 第三,我想給出一個(gè)更簡潔的安裝教程,

    2024年02月03日
    瀏覽(14)
  • 大數(shù)據(jù)集群搭建全部過程(Vmware虛擬機(jī)、hadoop、zookeeper、hive、flume、hbase、spark、yarn)

    大數(shù)據(jù)集群搭建全部過程(Vmware虛擬機(jī)、hadoop、zookeeper、hive、flume、hbase、spark、yarn)

    1.網(wǎng)關(guān)配置(參照文檔) 注意事項(xiàng):第一臺虛擬機(jī)改了,改為centos 101 ,地址為192.168.181.130 網(wǎng)關(guān)依然是192.168.181.2,但是一定要注意,它在D盤的文件名稱是Hadoop 101,后面重新搭建的會(huì)命名文件夾為hadoop 101,hadoop 102和hadoop 103,然后發(fā)到一個(gè)總的文件夾hadoop_03里面去 VMnet8的IP地址一定

    2024年02月02日
    瀏覽(29)
  • Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive 完全分布式高可用集群搭建(保姆級超詳細(xì)含圖文)

    Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive 完全分布式高可用集群搭建(保姆級超詳細(xì)含圖文)

    說明: 本篇將詳細(xì)介紹用二進(jìn)制安裝包部署hadoop等組件,注意事項(xiàng),各組件的使用,常用的一些命令,以及在部署中遇到的問題解決思路等等,都將詳細(xì)介紹。 ip hostname 192.168.1.11 node1 192.168.1.12 node2 192.168.1.13 node3 1.2.1系統(tǒng)版本 1.2.2內(nèi)存建議最少4g、2cpu、50G以上的磁盤容量 本次

    2024年02月12日
    瀏覽(38)
  • 【Spark+Hadoop+Hive+MySQL+Presto+SpringBoot+Echarts】基于大數(shù)據(jù)技術(shù)的用戶日志數(shù)據(jù)分析及可視化平臺搭建項(xiàng)目

    【Spark+Hadoop+Hive+MySQL+Presto+SpringBoot+Echarts】基于大數(shù)據(jù)技術(shù)的用戶日志數(shù)據(jù)分析及可視化平臺搭建項(xiàng)目

    點(diǎn)我獲取項(xiàng)目數(shù)據(jù)集及代碼 隨著我國科學(xué)技術(shù)水平的不斷發(fā)展,計(jì)算機(jī)網(wǎng)絡(luò)技術(shù)的廣泛應(yīng)用,我國已經(jīng)步入了大數(shù)據(jù)時(shí)代。在大數(shù)據(jù)背景下,各種繁雜的數(shù)據(jù)層出不窮,一時(shí)難以掌握其基本特征及一般規(guī)律,這也給企業(yè)的運(yùn)營數(shù)據(jù)分析工作增添了不小的難度。在大數(shù)據(jù)的背景

    2024年02月10日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包