国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【kerberos】org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN,

這篇具有很好參考價值的文章主要介紹了【kerberos】org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN,。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

前言

在用SUSE 操作系統(tǒng)安裝 CM 大數(shù)據(jù)平臺,在集群開啟 kerberos 后,使用 HDFS 命令報錯如下:

hdfs dfs -ls /
19/05/29 18:06:15 WARN ipc.Client: Exception encountered while connecting to the server : org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]
ls: Failed on local exception: java.io.IOException: org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN, KERBEROS]; Host Details : local host is: "hadoop001/172.17.239.230"; destination host is: "hadoop001":8020;

環(huán)境信息

SUSE Linux Enterprise Server 12 Service Pack 1 (SLES 12 SP5)

問題復(fù)現(xiàn)

  1. 先進行認證
kinit -kt hdfs.keytab hdfs

## 查看票據(jù)
klist 

【kerberos】org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN,,問題解決,Hadoop,kerberos,hadoop,apache,hdfs

export HADOOP_ROOT_LOGGER=DEBUG,console
export HADOOP_OPTS="-Dsun.security.krb5.debug=true -Djavax.net.debug=ssl"
hdfs dfs -ls /

【kerberos】org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN,,問題解決,Hadoop,kerberos,hadoop,apache,hdfs

問題原因

仔細看,在使用 klist 命令時,有個Ticket Cache : Dir 他指向的路徑是: /run/user/0/krb5cc/tkt

而在執(zhí)行 HDFS 命令時,有個 KinitOptions cache name is 他指向的路徑是 tmp/krb5cc_0

HDFS 默認是去 /tmp 目錄下找 Kerberos 緩存。然后 SUSE 操作系統(tǒng)下 kerberos 并不是放在 /tmp 目錄下,導(dǎo)致 HDFS 客戶端認為你沒有進行 Kerberos 認證。所以報錯。

解決方案

/etc/krb5.conf中,我們增加了下面的參數(shù)以后,就可以正常kinit,也可以執(zhí)行hdfs的命令了。

default_ccache_name = FILE:/tmp/krb5cc_%{uid}

【kerberos】org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN,,問題解決,Hadoop,kerberos,hadoop,apache,hdfs

  1. 銷毀憑據(jù)
kdestroy
  1. 重新認證
kinit -kt hdfs.keytab hdfs
  1. 查看HDS
hdfs dfs -ls /

在重新執(zhí)行,問題解決!

此外網(wǎng)上還有別的解決方案,但都不是我這種情況。這里也順便貼下:

方法一:

krb5.conf文件中的default_ccache_name注釋掉,然后執(zhí)行kdestroy,重新kinit,問題解決

方法二:

在 /etc/krb5.conf 里補全了加密方法后
https://www.cnblogs.com/tommyjiang/p/15008787.html

方法三:

代碼問題
https://blog.csdn.net/ifenggege/article/details/111243297文章來源地址http://www.zghlxwxcb.cn/news/detail-695594.html

到了這里,關(guān)于【kerberos】org.apache.hadoop.security.AccessControlException: Client cannot authenticate via:[TOKEN,的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【Flink】ClassNotFoundException: org.apache.hadoop.conf.Configuration

    問題背景 在Flink的sql-client客戶端中執(zhí)行連接hive的sql代碼時出現(xiàn)如下錯誤,版本Flink1.13.6 Flink SQL ?create catalog test?with( ?\\\'type\\\'=\\\'hive\\\', \\\'default-database\\\'=\\\'default\\\', \\\'hive-conf-dir\\\'=\\\'/opt/hive/conf\\\'); [ERROR] Could not execute SQL statement. Reason: java.lang.ClassNotFoundException: org.apache.hadoop.conf.Configuration 問題

    2024年02月21日
    瀏覽(21)
  • 解決:org.apache.rocketmq.client.exception.MQClientException: No route info of this topic, TopicTest

    解決:org.apache.rocketmq.client.exception.MQClientException: No route info of this topic, TopicTest

    搭建rocketmq單機環(huán)境時踩坑。 遇到問題:在使用命令 nohup ./mqbroker -n localhost:9876 啟動broker時,如果出現(xiàn)如下錯誤信息 org.apache.rocketmq.client.exception.MQClientException: No route info of this topic, TopicTest See http://rocketmq.apache.org/docs/faq/ for further details. ?? ?at org.apache.rocketmq.client.impl.producer.

    2024年02月06日
    瀏覽(19)
  • Hadoop datanode啟動異常 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode

    現(xiàn)象 線上收到hadoop集群datanode掉線告警。 排查 1、確認datanode狀態(tài) 發(fā)現(xiàn)未存在datanode進程。 2、嘗試單獨啟動datanode,發(fā)現(xiàn)還是不行,錯誤日志信息如下: $ hadoop-daemon.sh start datanode 2022-11-25 15:58:43,267 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool (Datanod

    2023年04月08日
    瀏覽(22)
  • org.apache.flink.table.client.SqlClientException: Could not read from command line【Flink解決方案】

    org.apache.flink.table.client.SqlClientException: Could not read from command line【Flink解決方案】

    在啟動Flink的SQL集群時遇到啟動異常,可能的原因有多種。以下是一些可能的原因猜測及解釋: 配置錯誤 : flink-conf.yaml 或其他配置文件可能存在錯誤或遺漏,導(dǎo)致Flink無法正確加載配置。 SQL客戶端的配置(如TableSource或TableResult的配置)可能不正確,導(dǎo)致SQL作業(yè)無法啟動。

    2024年04月26日
    瀏覽(23)
  • flink1.7x問題Lambda表達式出現(xiàn)異常org.apache.flink.runtime.client.JobExecutionException: Job execution faile

    flink1.7x問題Lambda表達式出現(xiàn)異常org.apache.flink.runtime.client.JobExecutionException: Job execution faile

    其他的哪些都是瞎扯淡 flink1.7x版本的問題: 使用Lambda-表達式出現(xiàn)異常org.apache.flink.runtime.client.JobExecutionException: Job execution faile 解決問題: 升級jdk版本為17 flink1.7已經(jīng)棄用jdk8了 然后升完級運行出異常: 異常信息 在idea的vm處加上: 運行jar時候加上: 異常信息

    2024年02月04日
    瀏覽(21)
  • ERROR:org.apache.hadoop.hbase.PleaseHoldException: Master is initializing錯誤

    ERROR:org.apache.hadoop.hbase.PleaseHoldException: Master is initializing錯誤

    重新安裝hbase后,在hbase shell中查看所有命名空間時,出現(xiàn)了ERROR:org.apache.hadoop.hbase.PleaseHoldException: Master is initializing錯誤。 ? ? 1、root用戶下,關(guān)閉hbase stop-hbase.sh ?2、執(zhí)行以下命令刪除HDFS下的hbase數(shù)據(jù)。 hadoop fs -rm -r /hbase ?3、將zookeeper客戶端下的hbase文件也刪除。 ?1、sh z

    2023年04月14日
    瀏覽(25)
  • Hive報錯org.apache.hadoop.hive.ql.exec.mr.MapredLocalTask

    報錯Error while compiling statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.mr.MapredLocalTask 執(zhí)行Hive兩個表JOIN時出現(xiàn)如上錯誤 報錯原因: 執(zhí)行的join是大表和小表進性join,而Hive默認開啟了MapJoin,即:hive.auto.convert.join=true; 但集群機器內(nèi)存不夠,導(dǎo)致出錯。 Map Join

    2024年02月12日
    瀏覽(27)
  • hbase報錯 ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing

    運行環(huán)境: hadoop3.2.3(偽分布式) jdk1.8 hbase2.5.5 解決方案: 1.刪除hbase內(nèi)置zookeeper信息 2.刪除hdfs中hbase相關(guān)信息 重啟hbase即可。

    2024年02月03日
    瀏覽(45)
  • hive查看數(shù)據(jù)庫出現(xiàn)org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient

    hive查看數(shù)據(jù)庫出現(xiàn)org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient

    在啟動hive后,使用show databses查看數(shù)據(jù)庫時發(fā)現(xiàn),出現(xiàn)了這個錯誤 根據(jù)搜索查找以及分析得知:可能是hive的數(shù)據(jù)庫MySQL在安裝的時候沒有初始化,初始化數(shù)據(jù)庫即可 schematool -dbType mysql -initSchema? 1.在MySQL中刪除元數(shù)據(jù) drop database metastore; 2.進入hive中的bin里面?,輸入格式化命令

    2024年02月07日
    瀏覽(25)
  • 解決java: 程序包org.apache.hadoop.conf不存在的一種冷門思路

    解決java: 程序包org.apache.hadoop.conf不存在的一種冷門思路

    我們在用idea編譯Hadoop項目時,明明已經(jīng)導(dǎo)入了相關(guān)的jre依賴包,但是編譯時提示包不存在 原因是我們還沒在項目的 pom.xml 文件中配置相關(guān)的變量 找到它 打開之后長這樣 最后一步,代碼里面那個“2.6.0”是我的Hadoop版本,將它改成你自己安裝的Hadoop的版本就行了,三個都要。

    2024年02月11日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包