国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

《Kafka系列》Offset Explorer連接Kafka問題集合,Timeout expired while.. topic metadata,Uable to find any brokers

這篇具有很好參考價值的文章主要介紹了《Kafka系列》Offset Explorer連接Kafka問題集合,Timeout expired while.. topic metadata,Uable to find any brokers。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Kafka常見問題處理記錄

一、kafka創(chuàng)建topic失敗, Replication factor: 1 larger than available brokers: 0

1.創(chuàng)建語句如下所示,按照習慣在添加zookeeper參數(shù)的時候,指定了zxy:2181/kafka,但是卻創(chuàng)建失敗,Error while executing topic command : Replication factor: 1 larger than available brokers: 0.

[root@zxy bin]# kafka-topics.sh --create --topic tp1 --zookeeper zxy:2181/kafka --partitions 3 --replication-factor 1
Error while executing topic command : Replication factor: 1 larger than available brokers: 0.
[2023-03-27 17:15:46,605] ERROR org.apache.kafka.common.errors.InvalidReplicationFactorException: Replication factor: 1 larger than available brokers: 0.
 (kafka.admin.TopicCommand$)

2.檢查各個broker的server.properties文件

發(fā)現(xiàn)在配置參數(shù)的時候,zookeeper.connect指定的是zxy:2181,zxy:2182,zxy:2183

[root@zxy config]# cat server01.properties
broker.id=1
port=9091
listeners=PLAINTEXT://localhost:9091
log.dirs=/zxy/apps/kafkaCluster/kafkaLog01
zookeeper.connect=zxy:2181,zxy:2182,zxy:2183

3.指定zookeeper參數(shù)為zxy:2181,創(chuàng)建成功

[root@zxy bin]# kafka-topics.sh --create --topic tp1 --zookeeper zxy:2181 --partitions 3 --replication-factor 1
Created topic "tp1".

二、服務器Cannot allocate memory

問題:在使用服務器中遇到內(nèi)存無法分配到問題導致啟動不了Kafka
思路一:根據(jù)查找方法,最后將vm.overcommit_memory設為1,但是對我這個問題沒有太大幫助

管理員下三種方案
1.編輯/etc/sysctl.conf ,改vm.overcommit_memory=1,然后sysctl -p使配置文件生效
2.sysctl vm.overcommit_memory=1
3.echo 1 > /proc/sys/vm/overcommit_memory,然后sysctl –p永久生效

思路二:然后通過修改為kafka分配的內(nèi)存,還是沒有解決問題

if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
    export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
fi

修改為

if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
    export KAFKA_HEAP_OPTS="-Xmx256M -Xms128M"
fi

思路三:最后想到zookeeper已經(jīng)啟動了,是不是因為它分配的內(nèi)存太多了,減少為zookeeper分配的內(nèi)存

if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
    export KAFKA_HEAP_OPTS="-Xmx256M -Xms128M"
fi

三、Offset Explorer連接Kafka問題集合,(Timeout expired while fetching topic metadata),(Uable to find any brokers)

1. Timeout expired while fetching topic metadata

1.Offset Explorer配置好zookeeper的連接地址后

《Kafka系列》Offset Explorer連接Kafka問題集合,Timeout expired while.. topic metadata,Uable to find any brokers

2.在查看Topics的時候,報錯Timeout expired while fetching topic metadata

《Kafka系列》Offset Explorer連接Kafka問題集合,Timeout expired while.. topic metadata,Uable to find any brokers

3.排查發(fā)現(xiàn)應該是kafka的server.properties文件中的advertised.listeners問題

  • 修改前是

    advertised.listeners=PLAINTEXT://localhost:9091
    
  • 修改后

    advertised.listeners=PLAINTEXT://:9091
    

4.修改好配置文件后,重啟Kafka即可

2.Uable to find any brokers

1.重新連接后,又遇到Uable to find any brokers問題,訪問不到的原因是,Offset Explorer訪問Kafka的時候,是因為Kafka tool是通過主機名訪問的,所以要在windows的hosts文件中配置上Kafka服務器的IP映射,配置目錄在C:\Windows\System32\drivers\etc

《Kafka系列》Offset Explorer連接Kafka問題集合,Timeout expired while.. topic metadata,Uable to find any brokers

2.打開C:\Windows\System32\drivers\etc,修改配置文件hosts,添加Kafka主機的映射關(guān)系

C:\Windows\System32\drivers\etc\hosts

125.262.96.387	zxy

3.斷開連接后,在AdvancedBootstrap servers處配置好Kafka服務,重新連接即可

《Kafka系列》Offset Explorer連接Kafka問題集合,Timeout expired while.. topic metadata,Uable to find any brokers

4.重新連接后,即可以看到已經(jīng)可以正常看到Topics了

《Kafka系列》Offset Explorer連接Kafka問題集合,Timeout expired while.. topic metadata,Uable to find any brokers

四、kafka數(shù)據(jù)到hudi丟失數(shù)據(jù)問題

1.報錯問題


Caused by: java.lang.IllegalStateException: Cannot fetch offset 196 (GroupId: spark-kafka-source-6f1df211-fdcb-4bcc-813d-55c4f9661c9d-1732697149-executor, TopicPartition: news-0).
Some data may have been lost because they are not available in Kafka any more; either the
 data was aged out by Kafka or the topic may have been deleted before all the data in the
 topic was processed. If you don't want your streaming query to fail on such cases, set the
 source option "failOnDataLoss" to "false".

        at org.apache.spark.sql.kafka010.InternalKafkaConsumer$.org$apache$spark$sql$kafka010$InternalKafkaConsumer$$reportDataLoss0(KafkaDataConsumer.scala:642)
        at org.apache.spark.sql.kafka010.InternalKafkaConsumer.org$apache$spark$sql$kafka010$InternalKafkaConsumer$$reportDataLoss(KafkaDataConsumer.scala:448)
        at org.apache.spark.sql.kafka010.InternalKafkaConsumer$$anonfun$get$1.apply(KafkaDataConsumer.scala:269)
        at org.apache.spark.sql.kafka010.InternalKafkaConsumer$$anonfun$get$1.apply(KafkaDataConsumer.scala:234)
        at org.apache.spark.util.UninterruptibleThread.runUninterruptibly(UninterruptibleThread.scala:77)
        at org.apache.spark.sql.kafka010.InternalKafkaConsumer.runUninterruptiblyIfPossible(KafkaDataConsumer.scala:209)
        at org.apache.spark.sql.kafka010.InternalKafkaConsumer.get(KafkaDataConsumer.scala:234)
  • 翻譯結(jié)果

    最終應用程序狀態(tài):失敗,exitCode:15,(原因:用戶類引發(fā)異常:org.apache.spark.sql.streaming.StreamingQueryException:由于階段失敗而中止作業(yè):階段2.0中的任務0失敗4次,最近的失敗:階段2.0中的任務0.3丟失(TID 5,hadoop,executor 1):java.lang.IllegalStateException:無法獲取偏移量196(GroupId:spark-kafka-source-e2868915-6d7a-4aef-99a8-3d1c5ef45147-1732697149-executor,主題分區(qū):news-0)。
    一些數(shù)據(jù)可能已經(jīng)丟失,因為它們在卡夫卡不再可用;要么是數(shù)據(jù)被卡夫卡過時了,要么是主題在處理完主題中的所有數(shù)據(jù)之前被刪除了。如果您不希望流式查詢在這種情況下失敗,請將源選項“failOnDataLoss”設置為“false”。

2.根據(jù)提示添加配置文件 -> option(“failOnDataLoss”,“false”)

//5.讀取Kafka源數(shù)據(jù)
        val df: DataFrame = spark.readStream.format("kafka")
            .option("kafka.bootstrap.servers", params.brokerList)
            .option("subscribe", params.topic)
            .option("startingOffsets", "latest")
            .option("kafka.consumer.commit.groupid", "action-log-group01")
            .option("failOnDataLoss","false")
            .load()

tips:認為添加這個配置不太妥當,但尚未找到適宜的方法
哪位博主知道的,希望可以指點指點文章來源地址http://www.zghlxwxcb.cn/news/detail-459973.html

到了這里,關(guān)于《Kafka系列》Offset Explorer連接Kafka問題集合,Timeout expired while.. topic metadata,Uable to find any brokers的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務器費用

相關(guān)文章

  • Kafka可視化工具-Offset Explorer使用

    Kafka可視化工具-Offset Explorer使用

    感謝點贊和關(guān)注 ,每天進步一點點!加油! 目錄 一、概述 二、環(huán)境信息 三、安裝和使用 3.1 下載Offset Explorer 和安裝 3.2 軟件配置 3.2.1Properties 3.2.2Properties 3.2.3Advanced 3.2.4 JAAS config 3.2.5修改配置文件 3.3 基本使用 3.3.1查看topic分區(qū)列表及分區(qū)leader位置信息 3.3.2查看數(shù)據(jù) Offset E

    2023年04月20日
    瀏覽(26)
  • kafka及可視化工具offset explorer

    kafka及可視化工具offset explorer

    KAFKA背景?? ? ? ? Kafka是由Apache軟件基金會開發(fā)的一個開源流處理平臺,由Scala和Java編寫。Kafka是一種高吞吐量的分布式發(fā)布訂閱消息系統(tǒng),它可以處理消費者在網(wǎng)站中的所有動作流數(shù)據(jù)。 這種動作(網(wǎng)頁瀏覽,搜索和其他用戶的行動)是在現(xiàn)代網(wǎng)絡上的許多社會功能的一個

    2024年02月16日
    瀏覽(20)
  • 【可視化工具】Kafka-Offset Explorer使用

    【可視化工具】Kafka-Offset Explorer使用

    感謝點贊和關(guān)注 ,每天進步一點點!加油! 目錄 一、概述 二、環(huán)境信息 三、安裝和使用 3.1 下載Offset Explorer 和安裝 3.2 軟件配置 3.2.1Properties 3.2.2Properties 3.2.3Advanced 3.2.4 JAAS config 3.2.5修改配置文件 3.3 基本使用 3.3.1查看topic分區(qū)列表及分區(qū)leader位置信息 3.3.2查看數(shù)據(jù) Offset E

    2024年01月16日
    瀏覽(21)
  • 【數(shù)倉】Kafka消息可視化工具:Offset Explorer(原名kafka Tool)

    【數(shù)倉】Kafka消息可視化工具:Offset Explorer(原名kafka Tool)

    Offset Explorer(以前稱為Kafka Tool)是一個用于管理和使用Apache Kafka?集群的GUI應用程序。 它提供了一個直觀的界面,允許用戶快速查看Kafka集群中的對象以及集群主題中存儲的消息。 它包含面向開發(fā)人員和管理員的功能。 一些主要功能包括: 快速查看所有Kafka集群,包括其代

    2024年04月09日
    瀏覽(25)
  • Kafka消息監(jiān)控管理工具Offset Explorer的使用教程

    Kafka消息監(jiān)控管理工具Offset Explorer的使用教程

    Offset Explorer是一款用于監(jiān)控和管理Apache Kafka集群中消費者組偏移量的開源工具。它提供了一個簡單直觀的用戶界面,用于查看和管理Kafka消費者組偏移量的詳細信息。 Offset Explorer具有以下主要功能和特點: 實時監(jiān)控:Offset Explorer可以實時監(jiān)控Kafka集群中的消費者組偏移量。它

    2024年02月16日
    瀏覽(32)
  • kafka實戰(zhàn)-消費者offset重置問題

    背景:當app啟動時,會調(diào)用 “啟動上報接口” 上報啟動數(shù)據(jù),該數(shù)據(jù)包含且不限于手機型號、應用版本、app類型、啟動時間等,一站式接入平臺系統(tǒng)會記錄該數(shù)據(jù)。 生產(chǎn)者:“啟動上報接口”會根據(jù)啟動數(shù)據(jù)發(fā)送一條kafka消息,topic“xxx” 消費者:“啟動處理模塊”會監(jiān)控

    2023年04月11日
    瀏覽(17)
  • kafka消費者程序日志報錯Offset commit failed問題研究

    生產(chǎn)環(huán)境偶爾會遇到kafka消費者程序日志報錯的問題 截取主要日志如下: kafka客戶端版本為2.2.0 結(jié)合日志去閱讀代碼,只能大概定位到,是客戶端程序向server發(fā)送commit offset請求的時候,server返回的錯誤信息是:The request timed out 看到 request timed out,第一時間很可能會誤以為是

    2024年02月07日
    瀏覽(28)
  • Rancher連接超時問題:解決dial tcp xxx:: i/o timeout錯誤

    Rancher連接超時問題:解決dial tcp xxx:: i/o timeout錯誤 在使用Rancher進行編程時,有時可能會遇到連接超時的問題。特別是在執(zhí)行Post請求時,可能會收到類似于\\\"dial tcp xxx:: i/o timeout\\\"的錯誤消息。本文將介紹如何解決這個問題,并提供相應的源代碼示例。 出現(xiàn)這個錯誤的原因通常

    2024年02月05日
    瀏覽(19)
  • kafka查詢offset&生產(chǎn)者offset計算&消費offset計算

    kafka查詢offset&生產(chǎn)者offset計算&消費offset計算

    1、簡介 ? kafka的介紹:略…(有興趣的同學可自行Google,這與本文無關(guān) ^ _ ^) 2、需求背景 ? 對kafka做監(jiān)控,需要獲取到kafka接收到消息的offset和被消費者消費掉消息的offset,編寫接口將數(shù)值交給prometheus,直接觀察判斷kafka的消費性能如何。(如何自定義prometheus的監(jiān)控指標后續(xù)

    2023年04月25日
    瀏覽(24)
  • Kafka之offset位移

    offset :在 Apache Kafka 中,offset 是一個用來唯一標識消息在分區(qū)中位置的數(shù)字。每個分區(qū)中的消息都會被分配一個唯一的 offset 值,用來表示該消息在該分區(qū)中的位置。消費者可以通過記錄自己消費的最后一個 offset 值來跟蹤自己消費消息的進度,確保不會漏掉消息或者重復消

    2024年04月10日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包