1、背景
當(dāng)時(shí),hive安裝部署好,并沒有這個(gè)問題,后面部署了 Flink On Yarn,就沒有使用過hive了。
2、問題
(1)使用 bin/hive 的時(shí)候,會(huì)打印大量的INFO日志,不停的刷日志,sql語句這些能夠正常執(zhí)行(MR引擎或者Tez引擎都可以),但是其實(shí)無法正常使用。
(2)info日志如下所示:
(3)而后想通過啟動(dòng) hiveserver2服務(wù),使用DataGrip去連接操作Hive,這樣至少不用看見那煩人的INFO日志了。。。事實(shí)是,sql語句無法正常跑下去。。。
3、解決辦法
出現(xiàn)這個(gè)問題的原因:環(huán)境變量配置了HADOOP_CLASSPATH導(dǎo)致的。文章來源:http://www.zghlxwxcb.cn/news/detail-668485.html
vim /etc/profile.d/my_env.sh
把最下面的注釋掉或者刪掉,重啟服務(wù)器,重啟集群,重新連接hive。
注意,除了source加載一次,一定要重啟服務(wù)器哈(reboot)!?。。。。∥揖褪窃栽诹诉@里,坑了半天。。。
##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
下面這兩個(gè)環(huán)境變量是在部署FLink On Yarn的時(shí)候用到的,為以后使用方便,我選擇注釋即可?。?!
#export HADOOP_CONF_DIR=/opt/module/hadoop-3.1.3/etc/hadoop
#export HADOOP_CLASSPATH=`hadoop classpath`
4、測試Hive是否正常
后面sql語句都正常使用。文章來源地址http://www.zghlxwxcb.cn/news/detail-668485.html
到了這里,關(guān)于Hive產(chǎn)生大量Info日志的問題(由Flink On Yarn配置引起的)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!