国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Hadoop啟動(dòng)時(shí)出現(xiàn)錯(cuò)誤:Cannot execute /home/hadoop/libexec/hadoop-config.sh.

這篇具有很好參考價(jià)值的文章主要介紹了Hadoop啟動(dòng)時(shí)出現(xiàn)錯(cuò)誤:Cannot execute /home/hadoop/libexec/hadoop-config.sh.。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

出現(xiàn)錯(cuò)誤:

Hadoop啟動(dòng)時(shí)出現(xiàn)錯(cuò)誤:Cannot execute /home/hadoop/libexec/hadoop-config.sh.
Hadoop啟動(dòng)時(shí)出現(xiàn)錯(cuò)誤:Cannot execute /home/hadoop/libexec/hadoop-config.sh.,hadoop,大數(shù)據(jù),分布式

原因分析

'ERROR: Cannot execute /usr/local/Hadoop/libexec/hdfs-config.sh'表示無(wú)法執(zhí)行指定路徑下的 hdfs-config.sh 文件。

可能是環(huán)境變量配置錯(cuò)誤導(dǎo)致的,所以要檢查 Hadoop 的環(huán)境變量配置是否正確。確保 Hadoop 的相關(guān)路徑正確設(shè)置。具體解決方法如下:

解決方法:

輸入運(yùn)行:

source /etc/profile?。V匦录虞d/etc/profile文件
vim ~/.bashrc 

Hadoop啟動(dòng)時(shí)出現(xiàn)錯(cuò)誤:Cannot execute /home/hadoop/libexec/hadoop-config.sh.,hadoop,大數(shù)據(jù),分布式

檢查.bashrc文件中的HADOOP_HOME是否有錯(cuò),HADOOP_HOME需要被配置成你機(jī)器上Hadoop的安裝路徑,比如這里是安裝在/usr/local./hadoop目錄。
Hadoop啟動(dòng)時(shí)出現(xiàn)錯(cuò)誤:Cannot execute /home/hadoop/libexec/hadoop-config.sh.,hadoop,大數(shù)據(jù),分布式
保存退出后,運(yùn)行如下命令使配置立即生效:

source ~/.bashrc

此時(shí)再次啟動(dòng)Hadoop顯示啟動(dòng)成功:

./sbin/start-dfs.sh

Hadoop啟動(dòng)時(shí)出現(xiàn)錯(cuò)誤:Cannot execute /home/hadoop/libexec/hadoop-config.sh.,hadoop,大數(shù)據(jù),分布式

搞定!

?注:

輸入命令source /etc/profile時(shí),會(huì)重新加載/etc/profile文件,這個(gè)文件包含了系統(tǒng)范圍的環(huán)境變量和配置。這個(gè)命令通常用于在當(dāng)前會(huì)話(huà)中更新環(huán)境變量。
如果想要恢復(fù)到之前的環(huán)境,可以關(guān)閉當(dāng)前終端會(huì)話(huà),并重新打開(kāi)一個(gè)新的終端會(huì)話(huà)。這將重新加載默認(rèn)的環(huán)境變量和配置文件。
如果想在當(dāng)前終端會(huì)話(huà)中恢復(fù)到之前的環(huán)境,可以使用以下命令:

exec bash

這將重新啟動(dòng)當(dāng)前shell會(huì)話(huà),并重新加載~/.bashrc文件,其中包含用戶(hù)特定的環(huán)境變量和配置。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-757852.html

到了這里,關(guān)于Hadoop啟動(dòng)時(shí)出現(xiàn)錯(cuò)誤:Cannot execute /home/hadoop/libexec/hadoop-config.sh.的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀(guān)點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 在hive插入數(shù)據(jù)時(shí)出現(xiàn)“Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask”報(bào)錯(cuò)

    在hive插入數(shù)據(jù)時(shí)出現(xiàn)“Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask”報(bào)錯(cuò)

    這個(gè)錯(cuò)誤代碼表明 Hive 作業(yè)由于某種原因失敗。 ? ?1.資源問(wèn)題: 這個(gè)錯(cuò)誤可能發(fā)生在集群上存在資源約束的情況下,例如內(nèi)存或 CPU 資源不足以完成 Hive 作業(yè)。 ? ?2.數(shù)據(jù)問(wèn)題: 它可能與數(shù)據(jù)本身相關(guān)。例如,數(shù)據(jù)可能損壞,或者數(shù)據(jù)格式或模式存在問(wèn)題,Hive 無(wú)法處理。

    2024年02月05日
    瀏覽(29)
  • 【錯(cuò)誤記錄】安裝 Hadoop 運(yùn)行環(huán)境報(bào)錯(cuò) ( Error: JAVA_HOME is incorrectly set. Please update xxx\hadoop-env.cmd )

    【錯(cuò)誤記錄】安裝 Hadoop 運(yùn)行環(huán)境報(bào)錯(cuò) ( Error: JAVA_HOME is incorrectly set. Please update xxx\hadoop-env.cmd )

    總結(jié) : 報(bào)錯(cuò) : Error: JAVA_HOME is incorrectly set. Please update xxxhadoop-env.cmd JDK 安裝在了 C:Program Files 目錄下 , 安裝目錄 Program Files 有空格 , 太坑了 ; 換一個(gè)沒(méi)有空格的 JDK 目錄 ; 安裝 Hadoop 運(yùn)行環(huán)境 , 完成上述安裝步驟后 , 運(yùn)行 hadoop 命令報(bào)錯(cuò) ; C:Windowssystem32hadoop -version The system ca

    2024年02月08日
    瀏覽(25)
  • 【Hadoop】關(guān)于Hadoop集群HDFS啟動(dòng)問(wèn)題:DataNode啟動(dòng)報(bào)錯(cuò)ERROR: Cannot set priority of namenode process

    出了問(wèn)題第一步一定要先看日志!看日志!看日志! DataNode日志文件在Hadoop目錄下的logs文件夾 以下列舉兩種問(wèn)題的解決方法: 1.最常見(jiàn)的就是對(duì)NameNode進(jìn)行了多次格式化操作,格式化NameNode,會(huì)產(chǎn)生新的集群id,導(dǎo)致NameNode和DataNode的集群id不一致,集群找不到已往數(shù)據(jù)。如果

    2024年02月06日
    瀏覽(27)
  • 啟動(dòng)Hadoop報(bào)錯(cuò)(Error: JAVA_HOME is not set and could not be found.)

    JAVA_HOME is not set and could not be found 首先確定JDK是否安裝配置:通過(guò) java -version查看JDK版本信息。 如果查詢(xún)不到版本信息,需下載JDK并配置環(huán)境變量。 在JDK配置無(wú)錯(cuò)的情況下,可能是沒(méi)有配置hadoop-env.sh文件。這個(gè)文件里寫(xiě)的是hadoop的環(huán)境變量,主要修改hadoop的JAVA_HOME路徑。 切換

    2024年02月12日
    瀏覽(104)
  • HADOOP啟動(dòng)集群報(bào)錯(cuò)JAVA_HOME is not set and could not be found.

    HADOOP啟動(dòng)集群報(bào)錯(cuò)JAVA_HOME is not set and could not be found.

    首先確保配置好 JAVA_HOME的環(huán)境變量 并在普通用戶(hù)和Root用戶(hù)下都輸入? ?Java -version? 確認(rèn)配置成功 注意:如果普通用戶(hù)輸入命令成功顯示jdk版本,root用戶(hù)輸入命令卻顯示找不到 Java命令。其中一種可能的解決辦法是:修改環(huán)境變量的配置文件, 先查找 JAVA_HOME/bin 再查找PATH

    2024年04月26日
    瀏覽(24)
  • 啟動(dòng)Hadoop報(bào)錯(cuò)【Error: JAVA_HOME is not set and could not be found.】

    啟動(dòng)Hadoop報(bào)錯(cuò)【Error: JAVA_HOME is not set and could not be found.】

    當(dāng)用了一下午從0安裝上Hadoop興奮的啟動(dòng)的時(shí)候! Error: JAVA_HOME is not set and could not be found. 他告訴我JAVA_HOME 沒(méi)被找到? 我明明安裝了java的,為什么找不到? java -version看了下發(fā)現(xiàn)是沒(méi)問(wèn)題的 解決: 后來(lái)發(fā)現(xiàn)是Hadoop上的java路徑并沒(méi)有配置,也就是Hadoop的環(huán)境變量沒(méi)有配置 進(jìn)入

    2024年02月09日
    瀏覽(46)
  • 啟動(dòng)Hadoop集群,出現(xiàn)Cannot set priority of nodemanager(resourcemanager) process xxx問(wèn)題

    啟動(dòng)Hadoop集群,出現(xiàn)Cannot set priority of nodemanager(resourcemanager) process xxx問(wèn)題

    (不感興趣可以跳過(guò)背景介紹) 配置 在安裝hive的過(guò)程中,初始化數(shù)據(jù)庫(kù)成功后(mysql),輸入 命令: ./bin/hive 啟動(dòng)hive時(shí)出錯(cuò)(忘記截圖了)。后發(fā)現(xiàn)原因是hive3.x僅支持JDK 1.8,并不支持openJDK 11,盡管hadoop3.3.x是支持JDK 1.8和openJDK 11的。當(dāng)降低JDK版本后啟動(dòng)集群,便出現(xiàn)啟動(dòng)

    2024年02月01日
    瀏覽(22)
  • Hadoop在啟動(dòng)yarn時(shí)報(bào)錯(cuò):Cannot set priority of resourcemanager process xxxxx

    Hadoop在啟動(dòng)yarn時(shí)報(bào)錯(cuò):Cannot set priority of resourcemanager process xxxxx

    著急看解決方法的請(qǐng)直接奔文末。 今天剛開(kāi)始弄Hadoop,啟動(dòng)完namenode和hadoop之后,開(kāi)始啟動(dòng)yarn,結(jié)果直接報(bào)錯(cuò)了: Cannot set priority of resourcemanager process 93826 翻譯過(guò)來(lái)就是說(shuō):無(wú)法設(shè)置resourcemanager進(jìn)程的優(yōu)先級(jí)(大概)。 然后就開(kāi)始百度,stackOverflow上有說(shuō)是沒(méi)有設(shè)置ssh免密登

    2023年04月12日
    瀏覽(27)
  • hadoop namenode格式化錯(cuò)誤以及啟動(dòng)不了解決方案

    重啟虛擬機(jī),啟動(dòng)Zookeeper和journalnode 啟動(dòng)三臺(tái)機(jī)器的zookeeper 和 journalnode 第一次格式化namenode時(shí)報(bào)錯(cuò),namennode可能會(huì)自動(dòng)進(jìn)入了安全模式,所以需要關(guān)閉安全模式 重新格式化 需要先關(guān)閉所有服務(wù) 查看配置文件是否有錯(cuò)誤 然后刪除tmp文件,并重新格式化namenode,tmp文件查看co

    2024年02月11日
    瀏覽(23)
  • Hive表字段類(lèi)型轉(zhuǎn)換錯(cuò)誤解決:Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask.

    Hive表字段類(lèi)型轉(zhuǎn)換錯(cuò)誤解決:Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask.

    假設(shè)某有數(shù)據(jù)的Hive表temp_table的字段狀況如下,需要將A字段由string類(lèi)型轉(zhuǎn)為int類(lèi)型: 字段名稱(chēng) 字段類(lèi)型 是否為分區(qū)字段 A string 否 B int 否 C bigint 否 D string 是 在Hdfs數(shù)據(jù)庫(kù)中,該表的數(shù)據(jù)是以Parquet文件格式存儲(chǔ)的,包含多個(gè)分區(qū)。 原本在該表中的字段A的類(lèi)型為int 。然而筆者

    2024年02月02日
    瀏覽(23)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包