国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

hive 3.1.3 on spark 3.0.0 安裝教程 (內附重新編譯好的jar包)

這篇具有很好參考價值的文章主要介紹了hive 3.1.3 on spark 3.0.0 安裝教程 (內附重新編譯好的jar包)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

首先,如果想要在hive 3.1.3上使用spark 3.0.0,不可避免地要重新編譯hive

如果只是配置了hive-site.xml和spark-defaults.conf,那么在插入測試的時候會報如下錯誤:
FAILED: Execution Error, return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Spark job failed during runtime. Please check stacktrace for the root cause.
hive3.1.3 on spark,hive,spark,jar

1. 下載hive源碼包

把hive 3.1.3 的源碼包下載到本地,目的是可以用intellij打開,方便修改相關源碼。
hive源碼包
hive3.1.3 on spark,hive,spark,jar

2. 解壓并用idea打開,改寫源碼

解壓后,文件夾內有一個同名文件夾apache-hive-3.1.3-src,用intellij打開。
hive3.1.3 on spark,hive,spark,jar

修改內容參考鏈接:修改內容
具體需要修改的部分如下
hive3.1.3 on spark,hive,spark,jar

以上圈起來的部分,一個個點進去照著改。怕有的人看不懂,以下圖為例:

hive3.1.3 on spark,hive,spark,jar
最上面表示文件名,直接從intellij找到相關文件修改即可。綠色部分表示要添加的內容,紅色部分表示要刪除的內容。

修改完畢后,重新打包成 .tar.gz 的格式。

如果你不想自己動手,沒關系,我提供了修改好的源碼包,里面還有不帶hadoop的純凈spark。為啥沒有maven編譯好的jar包呢,因為租的服務器帶寬太垃了,下到本地要半年。
鏈接:https://pan.baidu.com/s/1FCOJp29P56xZ8RMUYD9A3w
提取碼:jjc6

3. 上傳壓縮包至服務器并maven編譯

上傳至服務器,例如我上傳至 /opt/software/。
在下一步操作前,要先自行安裝好maven,沒安裝的請自行百度。

cd $MAVEN_HOME/conf/
vim settings.xml

settings.xml 中,添加以下鏡像:

<mirror>
    <id>alimaven</id>
    <name>aliyun maven</name>
    <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
    <mirrorOf>central</mirrorOf>
    </mirror>
<mirror>
    <id>aliyunmaven</id>
    <mirrorOf>*</mirrorOf>
    <name>spring-plugin</name>
    <url>https://maven.aliyun.com/repository/spring-plugin</url>
 </mirror>

 <mirror>
    <id>repo2</id>
    <name>Mirror from Maven Repo2</name>
    <url>https://repo.spring.io/plugins-release/</url>
    <mirrorOf>central</mirrorOf>
 </mirror>

進入剛剛壓縮包上傳的路徑,解壓壓縮包:

cd /opt/software/

# 解壓
tar -zxvf apache-hive-3.1.3-src.tar.gz

# 進入目錄
cd apache-hive-3.1.3-src/

# 使用Maven進行編譯打包
mvn clean package -Pdist -DskipTests -Dmaven.javadoc.skip=true

打包需要一段時間,完成后,進入到 cd packaging/target/ 文件夾,看到有一個編譯好的包:
hive3.1.3 on spark,hive,spark,jar

4. 改造原有hive環(huán)境

由于我之前是安裝過hive的,此時需要先把舊的hive重命名,比如mv hive hive_old
然后解壓我們編譯好的包 tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /opt/module/
這里我把解壓出來的文件夾重命名成hive。

# 拷貝原先的 hive-site.xml 和 spark-defaults.conf
cp hive_old/conf/hive-site.xml hive/conf/
cp hive_old/conf/spark-defaults.conf hive/conf/

# 拷貝lib下的 mysql jar包,沒有的可以自行下載,我上面的鏈接也有提供
cp hive_old/lib/mysql-connector-java-5.1.37-bin.jar hive/lib/

5. 上傳純凈spark jar包至集群

需要spark-3.0.0-bin-without-hadoop.tgz,可以自行下載,也可以從我的鏈接里下

# 解壓
tar -zxvf spark-3.0.0-bin-without-hadoop.tgz

# 創(chuàng)建目錄
hadoop fs -mkdir /spark-jars

# 上傳至集群
hadoop fs -put spark-3.0.0-bin-without-hadoop/jars/* /spark-jars

6. 啟動集群并測試

分別啟動 hadoop, metastore, hiveserver2
然后用 bin/hive 啟動hive測試一下

create table student(id int, name string);
insert into table student values(1,'abc');

如果出現(xiàn)以下內容,表示 hive 3.1.3 on spark 3.0.0 部署成功了
hive3.1.3 on spark,hive,spark,jar

如果本文對你有幫助,請點個贊支持一下~~文章來源地址http://www.zghlxwxcb.cn/news/detail-811184.html

到了這里,關于hive 3.1.3 on spark 3.0.0 安裝教程 (內附重新編譯好的jar包)的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Hadoop-HA-Hive-on-Spark 4臺虛擬機安裝配置文件

    apache-hive-3.1.3-bin.tar spark-3.0.0-bin-hadoop3.2.tgz hadoop-3.1.3.tar.gz 在hdfs上新建 spark-history(設置權限777),spark-jars文件夾 上傳jar到hdfs 鏈接hadoop中的文件 ln -s 源文件名 新文件名 鏈接hive中的文件 ln -s 源文件名 新文件名 鏈接hadoop中的文件 ln -s 源文件名 新文件名

    2024年02月07日
    瀏覽(51)
  • 了解hive on spark和spark on hive

    了解hive on spark和spark on hive

    ? ? ? ? 大數(shù)據(jù)剛出來的時候,并不是很完善。發(fā)展的不是很快,尤其是在計算服務上,當時使用的是第一代mr計算引擎,相對來說計算并不是那么快。讓大數(shù)據(jù)快速發(fā)展的是2009年伯克利大學誕生的spark,并在2013年成為Aparch的頂級開源項目。使大數(shù)據(jù)發(fā)展比較迅速、但是隨著

    2024年02月14日
    瀏覽(18)
  • 【大數(shù)據(jù)技術】Hive on spark 與Spark on hive 的區(qū)別與聯(lián)系

    【大數(shù)據(jù)技術】Hive on spark 與Spark on hive 的區(qū)別與聯(lián)系 Hive on Spark Hive 既作為存儲元數(shù)據(jù)又負責sql的解析優(yōu)化,遵守HQL語法,執(zhí)行引擎變成了spark,底層由spark負責RDD操作 Spark on Hive Hive只作為存儲元數(shù)據(jù),Spark負責sql的解析優(yōu)化,遵守spark sql 語法,底層由spark負責RDD操作

    2024年02月15日
    瀏覽(19)
  • spark on hive

    spark on hive

    注意:需要提前搭建好hive,并對hive進行配置。并將spark配置成為spark on yarn模式。 提前創(chuàng)建好啟動日志存放路徑 mkdir $HIVE_HOME/logStart 注意:其實還是hive的thirftserver服務,同時還需要啟動spark集群 連接thirftserver服務后,就可以使用hive的元數(shù)據(jù)(hive在hdfs中的數(shù)據(jù)庫和表),并且

    2024年02月07日
    瀏覽(23)
  • Jar包反編譯,修改代碼后,重新打jar包

    Jar包反編譯,修改代碼后,重新打jar包

    最近遇到一個問題,需要把現(xiàn)有的jar包反編譯成java代碼,然后運行,測試,修改后再次打jar包。并不復雜的項目,只是一個很簡單的main方法,并不是spring項目??赡苁侵暗拈_發(fā)走了,然后代碼丟失了,只剩下客戶那邊有一個用的jar包。 jar包:xxx-0.0.1-SNAPSHOT-jar-with-dependen

    2023年04月08日
    瀏覽(20)
  • Hive on Spark (1)

    在 Apache Spark 中,Executor 是分布式計算框架中的一個關鍵組件,用于 在集群中執(zhí)行具體的計算任務 。每個 Executor 都在獨立的 JVM 進程中運行,可以在集群的多臺機器上同時存在。Executors 負責實際的數(shù)據(jù)處理、計算和任務執(zhí)行,它們執(zhí)行來自 Driver 的指令,并將計算結果返回給

    2024年02月12日
    瀏覽(26)
  • SparkSQL與Hive整合(Spark On Hive)

    SparkSQL與Hive整合(Spark On Hive)

    hive metastore元數(shù)據(jù)服務用來存儲元數(shù)據(jù),所謂元數(shù)據(jù),即hive中庫、表、字段、字段所屬表、表所屬庫、表的數(shù)據(jù)所在目錄及數(shù)據(jù)分區(qū)信息。元數(shù)據(jù)默認存儲在hive自帶的Derby數(shù)據(jù)庫。在內嵌模式和本地模式下,metastore嵌入在主hive server進程中。但在遠程模式下,metastore 和 hive

    2024年02月12日
    瀏覽(27)
  • hive on spark內存模型

    hive on spark內存模型

    hive on spark的調優(yōu),那必然涉及到這一系列框架的內存模型。本章就是來講一下這些框架的內存模型。 hive on spark的任務,從開始到結束??偣采婕傲?個框架。分別是:yarn、hive、spark 其中,hive只是一個客戶端的角色。就不涉及任務運行時的內存。所以這里主要講的yarn和spark的

    2024年04月16日
    瀏覽(18)
  • Hive on Spark環(huán)境搭建

    Hive on Spark環(huán)境搭建

    Hive 引擎包括:默認 MR、tez、spark 最底層的引擎就是MR (Mapreduce)無需配置,Hive運行自帶 Hive on Spark:Hive 既作為存儲元數(shù)據(jù)又負責 SQL 的解析優(yōu)化,語法是 HQL 語法,執(zhí)行引擎變成了 Spark,Spark 負責采用 RDD 執(zhí)行。 Spark on Hive : Hive 只作為存儲元數(shù)據(jù),Spark 負責 SQL 解析優(yōu)化,語

    2024年02月13日
    瀏覽(18)
  • Spark On Hive原理和配置

    Spark On Hive原理和配置

    目錄 一、Spark On Hive原理 ? ? ? ? (1)為什么要讓Spark On Hive? 二、MySQL安裝配置(root用戶) ? ? ? ? (1)安裝MySQL ? ? ? ? (2)啟動MySQL設置開機啟動 ? ? ? ? (3)修改MySQL密碼 三、Hive安裝配置 ? ? ? ? (1)修改Hadoop的core-site.xml ? ? ? ? (2)創(chuàng)建hive-site.xml ? ? ? ?

    2024年02月08日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包