国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Flink系列之:動(dòng)態(tài)發(fā)現(xiàn)新增分區(qū)

這篇具有很好參考價(jià)值的文章主要介紹了Flink系列之:動(dòng)態(tài)發(fā)現(xiàn)新增分區(qū)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

為了在不重新啟動(dòng) Flink 作業(yè)的情況下處理主題擴(kuò)展或主題創(chuàng)建等場(chǎng)景,可以將 Kafka 源配置為在提供的主題分區(qū)訂閱模式下定期發(fā)現(xiàn)新分區(qū)。要啟用分區(qū)發(fā)現(xiàn),請(qǐng)為屬性partition.discovery.interval.ms設(shè)置一個(gè)非負(fù)值。

一、動(dòng)態(tài)發(fā)現(xiàn)新增分區(qū)

flink程序增加自動(dòng)發(fā)現(xiàn)分區(qū)參數(shù):

  • flink.partition-discovery.interval-millis是一個(gè)配置屬性,用于設(shè)置Flink作業(yè)中的分區(qū)發(fā)現(xiàn)間隔時(shí)間(以毫秒為單位)。
  • 在Flink作業(yè)中,數(shù)據(jù)源(例如Kafka或文件系統(tǒng))的分區(qū)可能會(huì)發(fā)生變化。為了及時(shí)感知分區(qū)的變化情況,并根據(jù)變化進(jìn)行相應(yīng)的處理,F(xiàn)link提供了分區(qū)發(fā)現(xiàn)機(jī)制。
  • flink.partition-discovery.interval-millis配置屬性用于設(shè)置Flink作業(yè)在進(jìn)行分區(qū)發(fā)現(xiàn)時(shí)的間隔時(shí)間。Flink作業(yè)會(huì)定期檢查數(shù)據(jù)源的分區(qū)情況,如果發(fā)現(xiàn)分區(qū)發(fā)生了變化(例如增加或減少了分區(qū)),F(xiàn)link會(huì)相應(yīng)地調(diào)整作業(yè)的并行度或重新分配任務(wù)來(lái)適應(yīng)新的分區(qū)情況。
  • 通過(guò)調(diào)整flink.partition-discovery.interval-millis的值,可以控制Flink作業(yè)進(jìn)行分區(qū)發(fā)現(xiàn)的頻率。較小的間隔時(shí)間可以實(shí)時(shí)感知到分區(qū)變化,但可能會(huì)增加作業(yè)的開(kāi)銷(xiāo);較大的間隔時(shí)間可以減少開(kāi)銷(xiāo),但可能導(dǎo)致較長(zhǎng)時(shí)間的延遲。
  • 需要注意的是,flink.partition-discovery.interval-millis的默認(rèn)值是5分鐘(300000毫秒),可以根據(jù)具體需求進(jìn)行調(diào)整。

二、Flink SQL動(dòng)態(tài)發(fā)現(xiàn)新增分區(qū)

參數(shù):scan.topic-partition-discovery.interval

CREATE TABLE KafkaTable (
  `event_time` TIMESTAMP(3) METADATA FROM 'timestamp',
  `partition` BIGINT METADATA VIRTUAL,
  `offset` BIGINT METADATA VIRTUAL,
  `user_id` BIGINT,
  `item_id` BIGINT,
  `behavior` STRING
) WITH (
  'connector' = 'kafka',
  'topic' = 'user_behavior',
  'properties.bootstrap.servers' = 'localhost:9092',
  'properties.group.id' = 'testGroup',
  'scan.startup.mode' = 'earliest-offset',
  'format' = 'csv'
);

Connector Options:

Option Required Default Type Description
scan.topic-partition-discovery.interval optional (none) Duration 消費(fèi)者定期發(fā)現(xiàn)動(dòng)態(tài)創(chuàng)建的Kafka主題和分區(qū)的時(shí)間間隔。

三、Flink API動(dòng)態(tài)發(fā)現(xiàn)新增分區(qū)

參數(shù):partition.discovery.interval.ms

Java

KafkaSource.builder()    
.setProperty("partition.discovery.interval.ms", "10000"); 
// discover new partitions per 10 seconds

Python文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-647384.html

KafkaSource.builder() \
    .set_property("partition.discovery.interval.ms", "10000")  
    # discover new partitions per 10 seconds

到了這里,關(guān)于Flink系列之:動(dòng)態(tài)發(fā)現(xiàn)新增分區(qū)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Flink系列Table API和SQL之:動(dòng)態(tài)表、持續(xù)查詢(xún)、將流轉(zhuǎn)換成動(dòng)態(tài)表、更新查詢(xún)、追加查詢(xún)、將動(dòng)態(tài)表轉(zhuǎn)換為流、更新插入流(Upsert)

    Flink系列Table API和SQL之:動(dòng)態(tài)表、持續(xù)查詢(xún)、將流轉(zhuǎn)換成動(dòng)態(tài)表、更新查詢(xún)、追加查詢(xún)、將動(dòng)態(tài)表轉(zhuǎn)換為流、更新插入流(Upsert)

    Flink中使用表和SQL基本上跟其他場(chǎng)景是一樣的。不過(guò)對(duì)于表和流的轉(zhuǎn)換,卻稍顯復(fù)雜。當(dāng)我們將一個(gè)Table轉(zhuǎn)換成DataStream時(shí),有\(zhòng)\\"僅插入流\\\"(Insert-Only Streams)和\\\"更新日志流\\\"(Changelog Streams)兩種不同的方式,具體使用哪種方式取決于表中是否存在更新操作。 這種麻煩其實(shí)是不可避

    2024年02月03日
    瀏覽(20)
  • golang kafka Shopify/sarama 消費(fèi)者重置新增分區(qū)偏移量并進(jìn)行重新消費(fèi)

    golang kafka Shopify/sarama 消費(fèi)者重置新增分區(qū)偏移量并進(jìn)行重新消費(fèi)

    當(dāng)我們使用kafka的時(shí)候存在這樣一個(gè)場(chǎng)景: 有一個(gè)消費(fèi)組正在正常消費(fèi)中并且消息偏移量策略為lastoffset(最新偏移量),這個(gè)時(shí)候在kafka服務(wù)器中為當(dāng)前主題下新增了一個(gè)分區(qū),各個(gè)生產(chǎn)者紛紛將消息投遞到了這個(gè)新增分區(qū)中。當(dāng)然我們知道針對(duì)于這種場(chǎng)景消費(fèi)者方可以觸發(fā)

    2024年02月09日
    瀏覽(18)
  • 【Flink】Flink 的八種分區(qū)策略(源碼解讀)

    【Flink】Flink 的八種分區(qū)策略(源碼解讀)

    Flink 包含 8 種分區(qū)策略,這 8 種分區(qū)策略(分區(qū)器)分別如下面所示,本文將從源碼的角度解讀每個(gè)分區(qū)器的實(shí)現(xiàn)方式。 GlobalPartitioner ShufflePartitioner RebalancePartitioner RescalePartitioner BroadcastPartitioner ForwardPartitioner KeyGroupStreamPartitioner CustomPartitionerWrapper 該分區(qū)器會(huì)將所有的數(shù)據(jù)都

    2024年04月10日
    瀏覽(30)
  • 07-Flink的keyby怎么實(shí)現(xiàn)的分區(qū)?分區(qū)、分組的區(qū)別是什么?

    Keyby實(shí)現(xiàn)原理: 對(duì)指定的key調(diào)用自身的hashCode方法=》hash1 調(diào)用murmruhash算法,進(jìn)行第二次hash =》鍵組ID 通過(guò)一個(gè)公式,計(jì)算出當(dāng)前數(shù)據(jù)應(yīng)該去往哪個(gè)下游分區(qū): 鍵組id * 下游算子并行度 / 最大并行度(默認(rèn)128) 分區(qū):算子的一個(gè)并行實(shí)例可以理解成一個(gè)分區(qū),是物理上的資源

    2024年02月11日
    瀏覽(18)
  • Flink狀態(tài)編程之按鍵分區(qū)狀態(tài)

    在實(shí)際應(yīng)用中,我們一般都需要將數(shù)據(jù)按照某個(gè) key 進(jìn)行分區(qū),然后再進(jìn)行計(jì)算處理;所 以最為常見(jiàn)的狀態(tài)類(lèi)型就是 Keyed State。之前介紹到 keyBy 之后的聚合、窗口計(jì)算,算子所 持有的狀態(tài),都是 Keyed State。 另外,我們還可以通過(guò)富函數(shù)類(lèi)(Rich Function)對(duì)轉(zhuǎn)換算子進(jìn)行擴(kuò)展、

    2024年01月25日
    瀏覽(19)
  • Flink處理函數(shù)(2)—— 按鍵分區(qū)處理函數(shù)

    Flink處理函數(shù)(2)—— 按鍵分區(qū)處理函數(shù)

    ?按鍵分區(qū)處理函數(shù)(KeyedProcessFunction):先進(jìn)行分區(qū),然后定義處理操作 定時(shí)器(timers)是處理函數(shù)中進(jìn)行時(shí)間相關(guān)操作的主要機(jī)制 定時(shí)服務(wù)(TimerService)提供了注冊(cè)定時(shí)器的功能 TimerService 是 Flink 關(guān)于時(shí)間和定時(shí)器的基礎(chǔ)服務(wù)接口: 六個(gè)方法可以分成兩大類(lèi):基于處理時(shí)

    2024年01月21日
    瀏覽(22)
  • Flink學(xué)習(xí)6-自定義分區(qū)器介紹

    Flink學(xué)習(xí)6-自定義分區(qū)器介紹

    背景說(shuō)明 我們都知道自定義source是可以自定義并行度的,數(shù)據(jù)讀寫(xiě)有幾個(gè)并行度就意味著有幾個(gè)分區(qū)。那么怎么控制我想要的數(shù)據(jù)流入到指定分區(qū)呢?flink1.12官方文檔給我們提供了一下幾種方式,接下來(lái)我們分別進(jìn)行討論。 partitionCustom分區(qū)器 按照官方的原話翻譯過(guò)來(lái)就是使

    2023年04月14日
    瀏覽(19)
  • ALTER TABLE 分區(qū)操作-動(dòng)態(tài)增加一級(jí),多級(jí)分區(qū),動(dòng)態(tài)刪除分區(qū)

    ALTER TABLE 分區(qū)操作-動(dòng)態(tài)增加一級(jí),多級(jí)分區(qū),動(dòng)態(tài)刪除分區(qū)

    alter 分區(qū)操作包括增加分區(qū)和刪除分區(qū)操作,這種分區(qū)操作在Spark3.x之后被支持,spark2.4版本不支持,并且使用時(shí),必須在spark配置中加入spark.sql.extensions屬性,其值為:org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions,在添加分區(qū)時(shí)還支持分區(qū)轉(zhuǎn)換,語(yǔ)法如下: 添加分區(qū)語(yǔ)

    2024年02月16日
    瀏覽(21)
  • flink重溫筆記(五):Flink 流批一體 API 開(kāi)發(fā)——物理分區(qū)(下)

    flink重溫筆記(五):Flink 流批一體 API 開(kāi)發(fā)——物理分區(qū)(下)

    前言 :今天是學(xué)習(xí) flink 的第五天啦! 主要學(xué)習(xí)了物理分區(qū)較難理解的部分,在這個(gè)部分的三個(gè)分區(qū)的學(xué)習(xí)中, rescale partition 和 forward partition 其原理可以歸類(lèi) pointwise 模式,其他的 partition 其原理可以歸類(lèi) all_to_all 模式,而比較有趣的是 custom partitioning,這個(gè)可以進(jìn)行根據(jù)值

    2024年02月19日
    瀏覽(21)
  • flink重溫筆記(四):Flink 流批一體 API 開(kāi)發(fā)——物理分區(qū)(上)

    flink重溫筆記(四):Flink 流批一體 API 開(kāi)發(fā)——物理分區(qū)(上)

    前言:今天是學(xué)習(xí)flink的第四天啦!學(xué)習(xí)了物理分區(qū)的知識(shí)點(diǎn),這一次學(xué)習(xí)了前4個(gè)簡(jiǎn)單的物理分區(qū),稱(chēng)之為簡(jiǎn)單分區(qū)篇! Tips:我相信自己會(huì)越來(lái)會(huì)好的,明天攻克困難分區(qū)篇,加油! 3. 物理分區(qū) 3.1 Global Partitioner 該分區(qū)器會(huì)將所有的數(shù)據(jù)都發(fā)送到下游的某個(gè)算子實(shí)例(subta

    2024年02月19日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包