国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

springboot簡單使用kafka消費者監(jiān)聽,以及kafka配置賬號密碼

這篇具有很好參考價值的文章主要介紹了springboot簡單使用kafka消費者監(jiān)聽,以及kafka配置賬號密碼。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1.引入依賴

    <dependency>
      <groupId>org.springframework.kafka</groupId>
      <artifactId>spring-kafka</artifactId>
    </dependency>

2.yml配置

 spring:
  kafka:
    bootstrap-servers: 127.0.0.1:9092
    properties:
      security:
        protocol: SASL_PLAINTEXT
      sasl:
        mechanism: SCRAM-SHA-512
        jaas:
          config: org.apache.kafka.common.security.scram.ScramLoginModule required username="username" password="password";
 
      #producer:
      #當retris為0時,produce不會重復。retirs重發(fā),此時repli節(jié)點完全成為leader節(jié)點,不會產(chǎn)生消息丟失。
      #如果沒收到ack響應 重試次數(shù) 設置大于0的值,則客戶端會將發(fā)送失敗的記錄重新發(fā)送
    #retries: 3
      # 每次批量發(fā)送消息的數(shù)量,produce積累到一定數(shù)據(jù),一次發(fā)送 每次提交的批次大小 16K
      # batch-size: 16384
      #produce積累數(shù)據(jù)一次發(fā)送,緩存大小達到buffer.memory就發(fā)送數(shù)據(jù) 32M
      # buffer-memory: 33554432
      # 0 是直接響應返回  1是leader完成響應返回 -1(all) 是ISR里 leade follower 全部完成 響應
      #procedure要求leader在考慮完成請求之前收到的確認數(shù),用于控制發(fā)送記錄在服務端的持久化,其值可以為如下:
      #acks = 0 如果設置為零,則生產(chǎn)者將不會等待來自服務器的任何確認,該記錄將立即添加到套接字緩沖區(qū)并視為已發(fā)送。在這種情況下,無法保證服務器已收到記錄,并且重試配置將不會生效(因為客戶端通常不會知道任何故障),為每條記錄返回的偏移量始終設置為-1。
      #acks = 1 這意味著leader會將記錄寫入其本地日志,但無需等待所有副本服務器的完全確認即可做出回應,在這種情況下,如果leader在確認記錄后立即失敗,但在將數(shù)據(jù)復制到所有的副本服務器之前,則記錄將會丟失。
      #acks = all 這意味著leader將等待完整的同步副本集以確認記錄,這保證了只要至少一個同步副本服務器仍然存活,記錄就不會丟失,這是最強有力的保證,這相當于acks = -1的設置。
      #可以設置的值為:all, -1, 0, 1
      # acks: 1
      #ey value 的序列化
      # key-serializer: org.apache.kafka.common.serialization.StringSerializer
      # value-serializer: org.apache.kafka.common.serialization.StringSerializer

    consumer:
      # 指定默認消費者group id --> 由于在kafka中,同一組中的consumer不會讀取到同一個消息,依靠groud.id設置組名
      group-id: defaultName
      #關(guān)閉自動提交
      enable-auto-commit: false
      #重置消費者的offset
      # smallest和largest才有效,如果smallest重新0開始讀取,如果是largest從logfile的offset讀取。一般情況下我們都是設置smallest
      auto-offset-reset: latest
      #key value 的反序列化
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      max-poll-records: 5
    listener:
      # RECORD 當每一條記錄被消費者監(jiān)聽器(ListenerConsumer)處理后提交
      # BATCH 當每一批poll()的數(shù)據(jù)被消費者監(jiān)聽器(ListenerConsumer)處理后提交
      # TIME 當每一批poll()的數(shù)據(jù)被消費者監(jiān)聽器(ListenerConsumer)處理后,距離上次提交時間大于TIME時提交
      # COUNT 當每一批poll()的數(shù)據(jù)被消費者監(jiān)聽器(ListenerConsumer)處理后,被處理record數(shù)量大于COUNT時提交
      # COUNT_TIME TIME | COUMT 有一個條件滿足時提交
      # MANUAL 當每一批poll()的數(shù)據(jù)被消費者監(jiān)聽器(ListenerConsumer)處理后,手動調(diào)用 Acknowledgment.acknowledge()后提交
      # MANUAL_IMMEDIATE 手動調(diào)用 Acknowledgment.acknowledge() 之后 立即提交
      ack-mode: manual_immediate
      # 消費監(jiān)聽接口監(jiān)聽的主題不存在時,默認會報錯
      missing-topics-fatal: false

3.設置消費

@Component
public class KafkaConsumer {

    private final static  String TOPIC_NAME="topic_NAME";

    @KafkaListener(topics = TOPIC_NAME,groupId = "defaultName")
    public void listenGroup(ConsumerRecord<String,String> record, Acknowledgment ack){
        System.out.println(record.value());
        System.out.println(record);
        
        手動提交offset
        ack.acknowledge();
      }
    }

文章來源地址http://www.zghlxwxcb.cn/news/detail-603771.html

到了這里,關(guān)于springboot簡單使用kafka消費者監(jiān)聽,以及kafka配置賬號密碼的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務器費用

相關(guān)文章

  • 07、Kafka ------ 消息生產(chǎn)者(演示 發(fā)送消息) 和 消息消費者(演示 監(jiān)聽消息)

    07、Kafka ------ 消息生產(chǎn)者(演示 發(fā)送消息) 和 消息消費者(演示 監(jiān)聽消息)

    簡單來說,就是一個數(shù)據(jù)項。 ▲ 消息就是 Kafka 所記錄的數(shù)據(jù)節(jié)點,消息在 Kafka 中又被稱為記錄(record)或事件(event)。 從存儲上來看,消息就是存儲在分區(qū)文件(有點類似于List)中的一個數(shù)據(jù)項,消息具有 key、value、時間戳 和 可選的元數(shù)據(jù)頭。 ▲ 下面是一個示例事件

    2024年01月20日
    瀏覽(46)
  • Kafka消費者使用案例

    Kafka消費者使用案例

    本文 代碼鏈接: https://download.csdn.net/download/shangjg03/88422633 在?Kafka?中,消費者通常是消費者群組的一部分,多個消費者群組共同讀取同一個主題時,彼此之間互不影響。Kafka?之所以要引入消費者群組這個概念是因為?Kafka?消費者經(jīng)常會做一些高延遲的操作,比如把數(shù)據(jù)寫到

    2024年02月08日
    瀏覽(27)
  • Java輕松使用Kafka生產(chǎn)者,消費者

    Java輕松使用Kafka生產(chǎn)者,消費者 一、環(huán)境說明 項目中需要下面的依賴: ( 版本自定義 ) 2. yml配置文件設置 1. 簡單生產(chǎn)者的書寫: 1. 簡單消費者的書寫: ? 注:多消費者時,需要對應kafka中配置的分區(qū);多少的Partition就有多少個消費者,以免資源浪費

    2024年02月15日
    瀏覽(29)
  • kafka復習:(20):消費者攔截器的使用

    一、定義消費者攔截器(只消費含\\\"sister\\\"的消息) 二、定義消費者,配置消費者攔截器

    2024年02月11日
    瀏覽(17)
  • Spring Boot中使用Kafka時遇到“構(gòu)建Kafka消費者失敗“的問題

    在使用Spring Boot開發(fā)應用程序時,集成Apache Kafka作為消息隊列是一種常見的做法。然而,有時候在配置和使用Kafka時可能會遇到一些問題。本文將探討在Spring Boot應用程序中使用Kafka時可能遇到的\\\"構(gòu)建Kafka消費者失敗\\\"錯誤,并提供解決方案。 錯誤描述: 當嘗試構(gòu)建Kafka消費者時

    2024年01月17日
    瀏覽(23)
  • 從Flink的Kafka消費者看算子聯(lián)合列表狀態(tài)的使用

    從Flink的Kafka消費者看算子聯(lián)合列表狀態(tài)的使用

    算子的聯(lián)合列表狀態(tài)是平時使用的比較少的一種狀態(tài),本文通過kafka的消費者實現(xiàn)來看一下怎么使用算子列表聯(lián)合狀態(tài) 首先我們看一下算子聯(lián)合列表狀態(tài)的在進行故障恢復或者從某個保存點進行擴縮容啟動應用時狀態(tài)的恢復情況 算子聯(lián)合列表狀態(tài)主要由這兩個方法處理: 1初

    2024年02月08日
    瀏覽(22)
  • 13、Kafka ------ kafka 消費者API用法(消費者消費消息代碼演示)

    13、Kafka ------ kafka 消費者API用法(消費者消費消息代碼演示)

    消費者API的核心類是 KafkaConsumer,它提供了如下常用方法: 下面這些方法都體現(xiàn)了Kafka是一個數(shù)據(jù)流平臺,消費者通過這些方法可以從分區(qū)的任意位置、重新開始讀取數(shù)據(jù)。 根據(jù)KafkaConsumer不難看出,使用消費者API拉取消息很簡單,基本只要幾步: 1、創(chuàng)建KafkaConsumer對象,創(chuàng)建

    2024年04月11日
    瀏覽(30)
  • 多個消費者訂閱一個Kafka的Topic(使用@KafkaListener和KafkaTemplate)

    記錄 :465 場景 :一個Producer在一個Topic發(fā)布消息,多個消費者Consumer訂閱Kafka的Topic。每個Consumer指定一個特定的ConsumerGroup,達到一條消息被多個不同的ConsumerGroup消費。 版本 :JDK 1.8,Spring?Boot 2.6.3,kafka_2.12-2.8.0,spring-kafka-2.8.2。 Kafka集群安裝 :https://blog.csdn.net/zhangbeizhen18/arti

    2024年02月15日
    瀏覽(22)
  • 多個消費者訂閱一個Kafka的Topic(使用KafkaConsumer和KafkaProducer)

    記錄 :466 場景 :一個KafkaProducer在一個Topic發(fā)布消息,多個消費者KafkaConsumer訂閱Kafka的Topic。每個KafkaConsumer指定一個特定的ConsumerGroup,達到一條消息被多個不同的ConsumerGroup消費。 版本 :JDK 1.8,Spring?Boot 2.6.3,kafka_2.12-2.8.0,kafka-clients-3.0.0。 Kafka集群安裝 :https://blog.csdn.net/zha

    2024年02月16日
    瀏覽(47)
  • 分布式 - 消息隊列Kafka:Kafka消費者和消費者組

    分布式 - 消息隊列Kafka:Kafka消費者和消費者組

    1. Kafka 消費者是什么? 消費者負責訂閱Kafka中的主題,并且從訂閱的主題上拉取消息。與其他一些消息中間件不同的是:在Kafka的消費理念中還有一層消費組的概念,每個消費者都有一個對應的消費組。當消息發(fā)布到主題后,只會被投遞給訂閱它的每個消費組中的一個消費者

    2024年02月13日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包