国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Hive on Spark中遇到的Failed to create Spark client for Spark session的問題

這篇具有很好參考價(jià)值的文章主要介紹了Hive on Spark中遇到的Failed to create Spark client for Spark session的問題。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Hive on Spark中遇到的Failed to create Spark client for Spark session的問題


在自學(xué)數(shù)倉項(xiàng)目中,遇到以下問題

錯誤提示:

org.apache.hadoop.hive.ql.parse.SemanticException:Failed to get a spark session: org.apache.hadoop.hive.ql.metadata.HiveException: Failed to create Spark client for Spark session dfea1fc3-5634-44c1-8a11-55ec733ea206

導(dǎo)致出現(xiàn)這個問題主要是Hive on Spark的資源不足導(dǎo)致,還有一種可能導(dǎo)致出現(xiàn)這情況,即namenode沒有正常啟動,可以檢查一下

解決方法:

1、修改參數(shù)

修改capacity-scheduler.xml中的參數(shù),文件位于$HADOOP_HOME/etc/hadoop

vim  capacity-scheduler.xml

yarn.scheduler.capacity.maximum-am-resource-percent中value修改成0.8即可

<property>
    <name>yarn.scheduler.capacity.maximum-am-resource-percent</name>
    <value>0.8</value>
    <description>
      Maximum percent of resources in the cluster which can be used to run
      application masters i.e. controls number of concurrent running
      applications.
    </description>
  </property>
2、分發(fā)配置文件,進(jìn)行同步

并將修改的capacity-scheduler.xml文件分發(fā)給其他節(jié)點(diǎn)中

可以通過rsync 或者 scp 分發(fā)給其他節(jié)點(diǎn)中

linux遠(yuǎn)程拷貝文件相關(guān)知識

3、將yarn重啟

只需要將yarn的ResourceManagerNodeManager重新啟動即可

stop-yarn.sh
start-yarn.sh

補(bǔ)充知識:

Apache Hadoop的使用的是容量調(diào)度器,它會每個資源隊(duì)列中運(yùn)行的Application Master占用的資源進(jìn)行啦限制,是在capacity-scheduler.xmlyarn.scheduler.capacity.maximum-am-resource-percent參數(shù)實(shí)現(xiàn)的,默認(rèn)值為0.1,即10%的資源。主要是為了防止大部分資源的被Application Master占用,而導(dǎo)致Map Task和 Reduce Task不能執(zhí)行。在生產(chǎn)中不需要調(diào)整,在這里調(diào)整主要是我自己電腦資源不足導(dǎo)致的。文章來源地址http://www.zghlxwxcb.cn/news/detail-436553.html

到了這里,關(guān)于Hive on Spark中遇到的Failed to create Spark client for Spark session的問題的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • docker failed to create task for container: failed to create shim task: OCI runtime create failed:

    docker failed to create task for container: failed to create shim task: OCI runtime create failed:

    根據(jù)CentOS安裝docker指南,啟動hello-world時(shí)報(bào)錯,提示信息中提到了 OCI runtime ,根本原因是 runc did not terminate successfully 參考【錯誤解決】docker找不到runc:failed to create shim: OCI runtime create failed: unable to retrieve OCI runtime,這個問題跟 runc 有關(guān),查看docker版本的確沒有runc信息 查看

    2024年02月14日
    瀏覽(59)
  • 記錄安裝Anaconda遇到的坑:failed to create menu.解決辦法(完美解決)

    記錄安裝Anaconda遇到的坑:failed to create menu.解決辦法(完美解決)

    Anaconda和Miniconda Anaconda是一個完整的環(huán)境,它內(nèi)置了很多Python常用的庫和相關(guān)依賴環(huán)境,安裝包體積和安裝后在電腦所占用的空間都較大。為什么有兩個Conda?其實(shí)兩個Conda的用處都是一樣的,都是用來創(chuàng)建虛擬環(huán)境,解決虛擬環(huán)境沖突的問題。 win10 64位用戶建議使用這個版本

    2024年02月10日
    瀏覽(24)
  • Linux調(diào)用Selenium報(bào)session not created: Chrome failed to start: exited normally.的問題解決方式

    確定了瀏覽器版本和chromedriver版本可以對應(yīng)得上,但是每次調(diào)用對應(yīng)的服務(wù)都會報(bào)該錯誤 問題在于啟動Selenium需要桌面,然而你的Linux上沒有桌面,所以報(bào)錯,解決這個問題的方式是將Selenium設(shè)置為不使用瀏覽器啟動,然而不使用瀏覽器啟動存在對應(yīng)的元素沒加載的問題,解決

    2024年02月03日
    瀏覽(46)
  • Spark寫入Hive報(bào)錯Mkdir failed on :com.alibaba.jfs.JindoRequestPath

    Spark寫入Hive報(bào)錯Mkdir failed on :com.alibaba.jfs.JindoRequestPath

    ????????程序很簡單,就是數(shù)倉ODS層計(jì)算邏輯,直接從阿里云OSS讀取數(shù)據(jù),補(bǔ)充上一些必要的列,最后數(shù)據(jù)落盤到hive表。 3.1 分析報(bào)錯內(nèi)容 ????????根據(jù)下面兩段報(bào)錯提示可以得出:Spark Driver在寫入Hive時(shí),試圖在oss://sync-to-bi.[馬賽克].aliyuncs.com/tmp/hive這個路徑下創(chuàng)建目

    2024年02月11日
    瀏覽(17)
  • docker: Error response from daemon: failed to create task for container: failed to create shim task:

    docker: Error response from daemon: failed to create task for container: failed to create shim task:

    我的系統(tǒng)是ubuntu22.04,裝的docker版本是24.0.5,但是在下載鏡像之后去加載時(shí)報(bào)了這個錯誤 docker: Error response from daemon: failed to create task for container: failed to create shim task: OCI runtime create failed: runc create failed: invalid rootfs: not an absolute path, or a symlink: unknown. ERRO[0000] error waiting for conta

    2024年02月09日
    瀏覽(26)
  • 【Appium】Failed to create session. An unknown server-side error occurred while processing the command

    【Appium】Failed to create session. An unknown server-side error occurred while processing the command

    報(bào)錯信息: 遇到這些錯誤的時(shí)候,我們要把 手機(jī)開發(fā)者模式的這三個選項(xiàng)都打開 : 因?yàn)樗惭b一個軟件: 第一次調(diào)試的時(shí)候手機(jī)端會彈出來個密鑰確定的窗口,大概意思就是是否同意這個計(jì)算機(jī)對自己的電腦進(jìn)行調(diào)試,要點(diǎn)同意。 然后 手機(jī)一定要安裝好要進(jìn)行調(diào)試的軟

    2024年02月16日
    瀏覽(36)
  • springboot中es查詢報(bào)錯:“failed to create querv:Cannot search on field [ableLook] since it is not indexed“

    springboot中es查詢報(bào)錯:“failed to create querv:Cannot search on field [ableLook] since it is not indexed“

    ?報(bào)錯情況如下: ? ?原因:是因?yàn)閑s字段的 index 設(shè)置為 false 不可以通過這個字段進(jìn)行搜索,比如: ?解決:把false 改為 true 或是直接把 \\\"index\\\": false 去掉,默認(rèn)index為ture

    2024年02月12日
    瀏覽(25)
  • Error: Could not open client transport with JDBC Uri: jdbc:hive2://hadoop102:10000: Failed to open..

    Error: Could not open client transport with JDBC Uri: jdbc:hive2://hadoop102:10000: Failed to open..

    在hive目錄下使用beeline命令: ?具體的報(bào)錯信息如下所示: 22/04/10 01:13:24 [main]: WARN jdbc.HiveConnection: Failed to connect to hadoop102:10000 Error: Could not open client transport with JDBC Uri: jdbc:hive2://hadoop102:10000: Failed to open new session: java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hado

    2024年02月11日
    瀏覽(29)
  • 了解hive on spark和spark on hive

    了解hive on spark和spark on hive

    ? ? ? ? 大數(shù)據(jù)剛出來的時(shí)候,并不是很完善。發(fā)展的不是很快,尤其是在計(jì)算服務(wù)上,當(dāng)時(shí)使用的是第一代mr計(jì)算引擎,相對來說計(jì)算并不是那么快。讓大數(shù)據(jù)快速發(fā)展的是2009年伯克利大學(xué)誕生的spark,并在2013年成為Aparch的頂級開源項(xiàng)目。使大數(shù)據(jù)發(fā)展比較迅速、但是隨著

    2024年02月14日
    瀏覽(18)
  • IDEA項(xiàng)目啟動報(bào)錯:Failed to execute goal on project xxx: Could not resolve dependencies for project

    IDEA項(xiàng)目啟動報(bào)錯:Failed to execute goal on project xxx: Could not resolve dependencies for project

    [ERROR] Failed to execute goal on project xxx: Could not resolve dependencies for project Failed to collect dependencies at xxx .xxx-service:jar:dev: Failed to read artifact descriptor for xxxx/maven-snapshots/ during a previous attempt. This failure was cached in the local repository and resolution is not reattempted until the update interval of nexus-snaps

    2024年02月03日
    瀏覽(247)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包