国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Kafka【問題 02】KafkaTemplate 報(bào)錯(cuò) Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected 問題解決

這篇具有很好參考價(jià)值的文章主要介紹了Kafka【問題 02】KafkaTemplate 報(bào)錯(cuò) Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected 問題解決。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

1.報(bào)錯(cuò)信息

主要的報(bào)錯(cuò)信息:Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available.Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected

報(bào)錯(cuò)詳情如下:

[pool-10-thread-1] INFO  o.a.k.c.p.ProducerConfig - [logAll,361] - ProducerConfig values: 
	acks = 1
	batch.size = 16384
	bootstrap.servers = [localhost:9092]
	buffer.memory = 33554432
	client.dns.lookup = use_all_dns_ips
	client.id = producer-1
	compression.type = none
	connections.max.idle.ms = 540000
	delivery.timeout.ms = 120000
	enable.idempotence = false
	interceptor.classes = []
	internal.auto.downgrade.txn.commit = true
	key.serializer = class org.apache.kafka.common.serialization.StringSerializer
	linger.ms = 0
	max.block.ms = 60000
	max.in.flight.requests.per.connection = 5
	max.request.size = 1048576
	metadata.max.age.ms = 300000
	metadata.max.idle.ms = 300000
	metric.reporters = []
	metrics.num.samples = 2
	metrics.recording.level = INFO
	metrics.sample.window.ms = 30000
	partitioner.class = class org.apache.kafka.clients.producer.internals.DefaultPartitioner
	receive.buffer.bytes = 32768
	reconnect.backoff.max.ms = 1000
	reconnect.backoff.ms = 50
	request.timeout.ms = 30000
	retries = 2147483647
	retry.backoff.ms = 100
	sasl.client.callback.handler.class = null
	sasl.jaas.config = null
	sasl.kerberos.kinit.cmd = /usr/bin/kinit
	sasl.kerberos.min.time.before.relogin = 60000
	sasl.kerberos.service.name = null
	sasl.kerberos.ticket.renew.jitter = 0.05
	sasl.kerberos.ticket.renew.window.factor = 0.8
	sasl.login.callback.handler.class = null
	sasl.login.class = null
	sasl.login.refresh.buffer.seconds = 300
	sasl.login.refresh.min.period.seconds = 60
	sasl.login.refresh.window.factor = 0.8
	sasl.login.refresh.window.jitter = 0.05
	sasl.mechanism = GSSAPI
	security.protocol = PLAINTEXT
	security.providers = null
	send.buffer.bytes = 131072
	socket.connection.setup.timeout.max.ms = 127000
	socket.connection.setup.timeout.ms = 10000
	ssl.cipher.suites = null
	ssl.enabled.protocols = [TLSv1.2]
	ssl.endpoint.identification.algorithm = https
	ssl.engine.factory.class = null
	ssl.key.password = null
	ssl.keymanager.algorithm = SunX509
	ssl.keystore.certificate.chain = null
	ssl.keystore.key = null
	ssl.keystore.location = null
	ssl.keystore.password = null
	ssl.keystore.type = JKS
	ssl.protocol = TLSv1.2
	ssl.provider = null
	ssl.secure.random.implementation = null
	ssl.trustmanager.algorithm = PKIX
	ssl.truststore.certificates = null
	ssl.truststore.location = null
	ssl.truststore.password = null
	ssl.truststore.type = JKS
	transaction.timeout.ms = 60000
	transactional.id = null
	value.serializer = class org.apache.kafka.common.serialization.StringSerializer

[pool-10-thread-1] INFO  o.a.k.c.u.AppInfoParser - [<init>,119] - Kafka version: 2.7.1
[pool-10-thread-1] INFO  o.a.k.c.u.AppInfoParser - [<init>,120] - Kafka commitId: 61dbce85d0d41457
[pool-10-thread-1] INFO  o.a.k.c.u.AppInfoParser - [<init>,121] - Kafka startTimeMs: 1659944463125
[kafka-producer-network-thread | producer-1] WARN  o.a.k.c.NetworkClient - [processDisconnection,782] - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available.
[kafka-producer-network-thread | producer-1] WARN  o.a.k.c.NetworkClient - [handleServerDisconnect,1079] - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected

配置信息:

  kafka:
    bootstrap-servers: xxx.xxx.x.xxx:9092
    producer:
      retries: 0
      batch-size: 16384
      buffer-memory: 33554432
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
      acks: all
    consumer:
      group-id: test
      auto-commit-interval: 1S
      auto-offset-reset: earliest
      enable-auto-commit: true
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      session-timeout-ms: 30000
    listener:
      concurrency: 5

2.問題分析

# 配置文件里的
	acks: all
# log里的
	acks = 1

很顯然是配置文件沒有生效 ?? 原來(lái)是一個(gè)很高階(diji)的錯(cuò)誤 ?? kafka的配置應(yīng)該是在spring下的應(yīng)該是這樣:

spring:
  kafka:
    bootstrap-servers: xxx.xxx.x.xxx:9092

錯(cuò)誤的示范(能生效就怪了):

mybatis:
  typeAliasesPackage: com.test.app
  kafka:
    bootstrap-servers: xxx.xxx.x.xxx:9092

3.總結(jié)

不少問題是由于粗心大意,yaml的格式也是很重要的,否則會(huì)出現(xiàn)意想不到的錯(cuò)誤,比如配置無(wú)法生效 ?? 比如下邊的 found a tab character that violates indentation文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-605167.html

fail to parseJobConfig, 
err: OmniParseFileToJobConfig 
failed: parseByBootstrap 
failed: While parsing config: yaml:
line 38: found a tab character that violates indentation

到了這里,關(guān)于Kafka【問題 02】KafkaTemplate 報(bào)錯(cuò) Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected 問題解決的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 南大通用數(shù)據(jù)庫(kù)-Gbase-8a-報(bào)錯(cuò)集錦-02-metadata is incomplete on localhost

    南大通用數(shù)據(jù)庫(kù)-Gbase-8a-報(bào)錯(cuò)集錦-02-metadata is incomplete on localhost

    名稱 值 CPU Intel(R) Core(TM) i5-1035G1 CPU @ 1.00GHz 操作系統(tǒng) CentOS Linux release 7.9.2009 (Core) 內(nèi)存 3G 邏輯核數(shù) 2 Gbase8a版本 8.6.2-R43 由于gbase.table_distribution存儲(chǔ)了所有引擎為express的表元數(shù)據(jù)信息,如果此表出現(xiàn)數(shù)據(jù)損壞,會(huì)導(dǎo)致本地調(diào)度節(jié)點(diǎn)無(wú)法獲取表信息,在select、drop等操作時(shí),將提

    2024年02月06日
    瀏覽(21)
  • ERROR Shutdown broker because all log dirs in ... have failed Windows下kafka報(bào)錯(cuò)

    Windows下kafka存在個(gè)別bug,比如在刪除某topic后再次啟動(dòng)kafka可能會(huì)失敗? 之前遇到這個(gè)問題刪除掉指定目錄中日志重啟即可,但這次還需要?jiǎng)h掉zookeeper的dataDir目錄里面的內(nèi)容,zoo.cfg里面的指定的dataDir目錄(數(shù)據(jù)請(qǐng)?zhí)崆皞浞?重啟zookeeper和kafka成功

    2024年02月05日
    瀏覽(14)
  • 消息驅(qū)動(dòng):如何使用 KafkaTemplate 集成 Kafka?

    消息驅(qū)動(dòng):如何使用 KafkaTemplate 集成 Kafka?

    消息通信機(jī)制與 SpringCSS 案例 在引入消息通信機(jī)制及消息中間件之前,我們先來(lái)梳理下 SpringCSS 中的應(yīng)用場(chǎng)景。 SpringCSS 案例中的消息通信場(chǎng)景 在 SpringCSS 案例中,一個(gè)用戶的賬戶信息變動(dòng)并不會(huì)太頻繁。因?yàn)?account-service 和 customer-service 分別位于兩個(gè)服務(wù)中,為了降低遠(yuǎn)程交

    2024年04月17日
    瀏覽(24)
  • 《Kafka系列》Offset Explorer連接Kafka問題集合,Timeout expired while.. topic metadata,Uable to find any brokers

    《Kafka系列》Offset Explorer連接Kafka問題集合,Timeout expired while.. topic metadata,Uable to find any brokers

    1.創(chuàng)建語(yǔ)句如下所示,按照習(xí)慣在添加zookeeper參數(shù)的時(shí)候,指定了 zxy:2181/kafka ,但是卻創(chuàng)建失敗, Error while executing topic command : Replication factor: 1 larger than available brokers: 0. 2.檢查各個(gè)broker的server.properties文件 發(fā)現(xiàn)在配置參數(shù)的時(shí)候, zookeeper.connect 指定的是 zxy:2181,zxy:2182,zxy:21

    2024年02月06日
    瀏覽(22)
  • Springboot實(shí)戰(zhàn)14 消息驅(qū)動(dòng):如何使用 KafkaTemplate 集成 Kafka?

    從今天開始,我們將進(jìn)入 Spring Boot 中另一個(gè)重要話題的討論,即消息通信。 消息通信是 Web 應(yīng)用程序中間層組件中的代表性技術(shù)體系,主要用于構(gòu)建復(fù)雜而又靈活的業(yè)務(wù)流程。在互聯(lián)網(wǎng)應(yīng)用中,消息通信被認(rèn)為是實(shí)現(xiàn)系統(tǒng)解耦和高并發(fā)的關(guān)鍵技術(shù)體系。本節(jié)課我們將在 Spri

    2024年02月04日
    瀏覽(22)
  • 【項(xiàng)目實(shí)戰(zhàn)】SpringBoot整合Kafka消息隊(duì)列(基于KafkaTemplate和@KafkaListener實(shí)現(xiàn))

    【項(xiàng)目實(shí)戰(zhàn)】SpringBoot整合Kafka消息隊(duì)列(基于KafkaTemplate和@KafkaListener實(shí)現(xiàn))

    Apache Kafka是分布式發(fā)布-訂閱消息系統(tǒng)。 它最初由LinkedIn公司開發(fā),之后成為Apache項(xiàng)目的一部分。 Kafka是一種快速、可擴(kuò)展的、設(shè)計(jì)內(nèi)在就是分布式的,分區(qū)的和可復(fù)制的提交日志服務(wù)。 Apache Kafka與傳統(tǒng)消息系統(tǒng)相比,有以下不同: 它將消息持久化到磁盤,因此可用于批量消

    2023年04月09日
    瀏覽(26)
  • 多個(gè)消費(fèi)者訂閱一個(gè)Kafka的Topic(使用@KafkaListener和KafkaTemplate)

    記錄 :465 場(chǎng)景 :一個(gè)Producer在一個(gè)Topic發(fā)布消息,多個(gè)消費(fèi)者Consumer訂閱Kafka的Topic。每個(gè)Consumer指定一個(gè)特定的ConsumerGroup,達(dá)到一條消息被多個(gè)不同的ConsumerGroup消費(fèi)。 版本 :JDK 1.8,Spring?Boot 2.6.3,kafka_2.12-2.8.0,spring-kafka-2.8.2。 Kafka集群安裝 :https://blog.csdn.net/zhangbeizhen18/arti

    2024年02月15日
    瀏覽(21)
  • Kafka【問題 03】Connection to node -1 (/IP:9092) could not be established. Broker may not be available.

    此問題僅出現(xiàn)在云服務(wù)器上,非云服務(wù)器未出現(xiàn)過一下報(bào)錯(cuò): 非云服務(wù)器: 云服務(wù)器: 云服務(wù)器有兩個(gè)IP,監(jiān)聽I(yíng)P為云服務(wù)器IP,而advertised監(jiān)聽I(yíng)P為云服務(wù)器的外網(wǎng)IP。

    2024年02月05日
    瀏覽(22)
  • kafka入門,Kafka Broker工作流程、Broker重要參數(shù)(十一)

    kafka入門,Kafka Broker工作流程、Broker重要參數(shù)(十一)

    在zookeeper的服務(wù)端存儲(chǔ)的Kafka相關(guān)信息 1)/kafka/brokers/ids [0,1,2] 記錄有哪些服務(wù)器 2)/kafka/brokers/topics/first/partitions/0/state 記錄誰(shuí)是leader,有哪些服務(wù)器可用 3)/kafka/controller 輔助選舉leader 1)broker啟動(dòng)后在zk中注冊(cè) 2)controller誰(shuí)先注冊(cè),誰(shuí)說了算 3)由選舉出來(lái)的Controller監(jiān)聽bro

    2024年02月11日
    瀏覽(59)
  • Kafka 實(shí)戰(zhàn) - Kafka Broker工作流程

    Apache Kafka Broker 在 Kafka 集群中扮演著核心角色,負(fù)責(zé)接收、存儲(chǔ)、復(fù)制及分發(fā)消息。以下是 Kafka Broker 的工作流程概覽: 1. 啟動(dòng)與初始化 加載配置 :Kafka Broker 從 server.properties 文件加載配置參數(shù),包括 Broker ID、監(jiān)聽地址、日志目錄、ZooKeeper 連接信息等。 注冊(cè)到 ZooKeeper :

    2024年04月15日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包