国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【flink】Checkpoint expired before completing. 使用flink同步數(shù)據(jù)出現(xiàn)錯(cuò)誤Checkpoint expired before completing.

這篇具有很好參考價(jià)值的文章主要介紹了【flink】Checkpoint expired before completing. 使用flink同步數(shù)據(jù)出現(xiàn)錯(cuò)誤Checkpoint expired before completing.。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

使用flink同步數(shù)據(jù)出現(xiàn)錯(cuò)誤Checkpoint expired before completing.

【flink】Checkpoint expired before completing.,flink,大數(shù)據(jù)


11:32:34,455 WARN  org.apache.flink.runtime.checkpoint.CheckpointFailureManager [Checkpoint Timer]  - Failed to trigger or complete checkpoint 4 for job 1b1d41031ea45d15bdb3324004c2d749. (2 consecutive failed attempts so far)
org.apache.flink.runtime.checkpoint.CheckpointException: Checkpoint expired before completing.
	at org.apache.flink.runtime.checkpoint.CheckpointCoordinator$CheckpointCanceller.run(CheckpointCoordinator.java:2143)
	at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
	at java.util.concurrent.FutureTask.run$$$capture(FutureTask.java:266)
	at java.util.concurrent.FutureTask.run(FutureTask.java)
	at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180)
	at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
	at java.lang.Thread.run(Thread.java:748)
11:32:34,459 INFO  org.jobslink.flink.sink.OperateMysqlDataSink                 [Source: CDC Sourceorg.jobslink.flink.TradeAndWorkTypeAndSkillsCDCJob -> (Filter -> Flat Map -> Filter -> (Sink: Print to Std. Out, Sink: sink jk_skills_base), Filter -> Flat Map -> Filter -> (Sink: Print to Std. Out, Sink: sink jk_trade_base), Filter -> Flat Map -> Filter -> (Sink: Print to Std. Out, Sink: sink jk_worktypes_base)) (1/1)#0]  - READ isExitSql is : [ SELECT count(1) count from jobslink_data_platform.src_skills_base where id= 1325753409319084034 ] 
11:32:34,468 INFO  org.apache.flink.runtime.jobmaster.JobMaster                 [flink-akka.actor.default-dispatcher-9]  - Trying to recover from a global failure.
org.apache.flink.util.FlinkRuntimeException: Exceeded checkpoint tolerable failure threshold.
	at org.apache.flink.runtime.checkpoint.CheckpointFailureManager.checkFailureAgainstCounter(CheckpointFailureManager.java:206)
	at org.apache.flink.runtime.checkpoint.CheckpointFailureManager.handleJobLevelCheckpointException(CheckpointFailureManager.java:169)
	at org.apache.flink.runtime.checkpoint.CheckpointFailureManager.handleCheckpointException(CheckpointFailureManager.java:122)
	at org.apache.flink.runtime.checkpoint.CheckpointCoordinator.abortPendingCheckpoint(CheckpointCoordinator.java:2082)
	at org.apache.flink.runtime.checkpoint.CheckpointCoordinator.abortPendingCheckpoint(CheckpointCoordinator.java:2061)
	at org.apache.flink.runtime.checkpoint.CheckpointCoordinator.access$600(CheckpointCoordinator.java:98)
	at org.apache.flink.runtime.checkpoint.CheckpointCoordinator$CheckpointCanceller.run(CheckpointCoordinator.java:2143)
	at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
	at java.util.concurrent.FutureTask.run$$$capture(FutureTask.java:266)
	at java.util.concurrent.FutureTask.run(FutureTask.java)
	at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180)
	at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
	at java.lang.Thread.run(Thread.java:748)
11:32:34,470 INFO  org.apache.flink.runtime.executiongraph.ExecutionGraph       [flink-akka.actor.default-dispatcher-9]  - Job org.jobslink.flink.TradeAndWorkTypeAndSkillsCDCJob (1b1d41031ea45d15bdb3324004c2d749) switched from state RUNNING to RESTARTING.
11:32:34,471 INFO  org.apache.flink.runtime.executiongraph.ExecutionGraph       [flink-akka.actor.default-dispatcher-9]  - Source: CDC Sourceorg.jobslink.flink.TradeAndWorkTypeAndSkillsCDCJob -> (Filter -> Flat Map -> Filter -> (Sink: Print to Std. Out, Sink: sink base), Filter -> Flat Map -> Filter -> (Sink: Print to Std. Out, Sink: sink base), Filter -> Flat Map -> Filter -> (Sink: Print to Std. Out, Sink: sink base)) (1/1) (3525ceb58f2dc3264812966ec8600a19) switched from RUNNING to CANCELING.

任務(wù)超時(shí)了:

重新把任務(wù)配置參數(shù),配置如下:

//開(kāi)啟CK
env.getCheckpointConfig().setCheckpointTimeout(60000);
//設(shè)置定期安排檢查點(diǎn)的時(shí)間間隔。
env.getCheckpointConfig().setCheckpointInterval(60000);
//設(shè)置可能同時(shí)進(jìn)行的檢查點(diǎn)嘗試的最大次數(shù)
env.getCheckpointConfig().setMaxConcurrentCheckpoints(500);
//設(shè)置檢查點(diǎn)嘗試之間的最小暫停時(shí)間。
env.getCheckpointConfig().setMinPauseBetweenCheckpoints(500);

或者修改

flink的 配置文件flink-conf.yaml?

【flink】Checkpoint expired before completing.,flink,大數(shù)據(jù)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-659180.html

到了這里,關(guān)于【flink】Checkpoint expired before completing. 使用flink同步數(shù)據(jù)出現(xiàn)錯(cuò)誤Checkpoint expired before completing.的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • flink如何利用checkpoint保證數(shù)據(jù)狀態(tài)一致性

    flink如何利用checkpoint保證數(shù)據(jù)狀態(tài)一致性

    這本質(zhì)上是一『盡力而為』的方法。保證數(shù)據(jù)或事件最多由應(yīng)用程序中的所有算子處理一次。 這意味著如果數(shù)據(jù)在被流應(yīng)用程序完全處理之前發(fā)生丟失,則不會(huì)進(jìn)行其他重試或者重新發(fā)送。下圖中的例子說(shuō)明了這種情況。 應(yīng)用程序中的所有算子都保證數(shù)據(jù)或事件至少被處理

    2024年02月21日
    瀏覽(35)
  • flink正常消費(fèi)kafka數(shù)據(jù),flink沒(méi)有做checkpoint,kafka位點(diǎn)沒(méi)有提交

    1、背景 flink消費(fèi)kafka數(shù)據(jù),多并發(fā),實(shí)現(xiàn)雙流join 2、現(xiàn)象 (1)flink任務(wù)消費(fèi)kafka數(shù)據(jù),其中數(shù)據(jù)正常消費(fèi),kafka顯示消息堆積,位點(diǎn)沒(méi)有提交,并且flink任務(wù)沒(méi)有做checkpoint (2)其中一個(gè)流的subtask顯示finished (3)無(wú)背壓 3、問(wèn)題原因 (1)其中一個(gè)topic分區(qū)為1 (2)配置的并行

    2024年02月13日
    瀏覽(22)
  • 【大數(shù)據(jù)】Flink 架構(gòu)(五):檢查點(diǎn) Checkpoint(看完即懂)

    【大數(shù)據(jù)】Flink 架構(gòu)(五):檢查點(diǎn) Checkpoint(看完即懂)

    《 Flink 架構(gòu) 》系列(已完結(jié)),共包含以下 6 篇文章: Flink 架構(gòu)(一):系統(tǒng)架構(gòu) Flink 架構(gòu)(二):數(shù)據(jù)傳輸 Flink 架構(gòu)(三):事件時(shí)間處理 Flink 架構(gòu)(四):狀態(tài)管理 Flink 架構(gòu)(五):檢查點(diǎn) Checkpoint(看完即懂) Flink 架構(gòu)(六):保存點(diǎn) Savepoint ?? 如果您覺(jué)得這篇

    2024年02月19日
    瀏覽(23)
  • 源碼解析Flink源節(jié)點(diǎn)數(shù)據(jù)讀取是如何與checkpoint串行執(zhí)行

    源碼解析Flink源節(jié)點(diǎn)數(shù)據(jù)讀取是如何與checkpoint串行執(zhí)行 Flink版本:1.13.6 前置知識(shí):源節(jié)點(diǎn)的Checkpoint是由Checkpointcoordinate觸發(fā),具體是通過(guò)RPC調(diào)用TaskManager中對(duì)應(yīng)的Task的StreamTask類(lèi)的performChecpoint方法執(zhí)行Checkpoint。 本文思路:本文先分析checkpoint階段,然后再分析數(shù)據(jù)讀取階段,

    2024年02月14日
    瀏覽(27)
  • flink中checkpoint重點(diǎn)介紹及生產(chǎn)上使用注意事項(xiàng)

    1、介紹 Flink Checkpoint 是 Apache Flink 提供的一種容錯(cuò)機(jī)制,用于保證在系統(tǒng)故障時(shí)數(shù)據(jù)的一致性和可靠性。 2、Flink Checkpoint內(nèi)容拆分 Checkpoint 是什么? Checkpoint 是將應(yīng)用程序中的狀態(tài)信息(包括操作符狀態(tài)、鍵值狀態(tài)等)定期保存到持久化存儲(chǔ)介質(zhì)中的過(guò)程。它可以將整個(gè)應(yīng)用

    2024年02月13日
    瀏覽(13)
  • 使用flink sqlserver cdc 同步數(shù)據(jù)到StarRocks

    使用flink sqlserver cdc 同步數(shù)據(jù)到StarRocks

    前沿: flink cdc功能越發(fā)強(qiáng)大,支持的數(shù)據(jù)源也越多,本篇介紹使用flink cdc實(shí)現(xiàn): sqlserver-》(using flink cdc)-〉flink -》(using flink starrocks connector)-〉starrocks整個(gè)流程 1.sqlserver 環(huán)境準(zhǔn)備(得使用sqlserver 16以下版本,flink cdc當(dāng)前只支持16以下sqlserver版本) 我這個(gè)使用的是docker環(huán)

    2024年02月10日
    瀏覽(27)
  • flink cdc數(shù)據(jù)同步,DataStream方式和SQL方式的簡(jiǎn)單使用

    flink cdc數(shù)據(jù)同步,DataStream方式和SQL方式的簡(jiǎn)單使用

    目錄 一、flink cdc介紹 1、什么是flink cdc 2、flink cdc能用來(lái)做什么 3、flink cdc的優(yōu)點(diǎn) 二、flink cdc基礎(chǔ)使用 1、使用flink cdc讀取txt文本數(shù)據(jù) 2、DataStream的使用方式 3、SQL的方式 總結(jié) flink cdc是一個(gè)由阿里研發(fā)的,一個(gè)可以直接從MySQL、PostgreSQL等數(shù)據(jù)庫(kù)直接讀取全量數(shù)據(jù)和增量變更數(shù)

    2024年02月13日
    瀏覽(25)
  • 使用Flink CDC將Mysql中的數(shù)據(jù)實(shí)時(shí)同步到ES

    最近公司要搞搜索,需要把mysql中的數(shù)據(jù)同步到es中來(lái)進(jìn)行搜索,由于公司已經(jīng)搭建了flink集群,就打算用flink來(lái)做這個(gè)同步。本來(lái)以為很簡(jiǎn)單,跟著官網(wǎng)文檔走就好了,結(jié)果沒(méi)想到折騰了將近一周的時(shí)間…… 我也是沒(méi)想到,這玩意網(wǎng)上資源竟然這么少,找到的全部都是通過(guò)

    2024年02月11日
    瀏覽(25)
  • 業(yè)務(wù)數(shù)據(jù)同步工具介紹和使用(Sqoop、Datax、Canal、MaxWell、Flink CDC)

    業(yè)務(wù)數(shù)據(jù)同步工具介紹和使用(Sqoop、Datax、Canal、MaxWell、Flink CDC)

    介紹 Sqoop : SQ L-to-Had oop ( Apache已經(jīng)終止Sqoop項(xiàng)目 ) 用途:把關(guān)系型數(shù)據(jù)庫(kù)的數(shù)據(jù)轉(zhuǎn)移到HDFS(Hive、Hbase)(重點(diǎn)使用的場(chǎng)景);Hadoop中的數(shù)據(jù)轉(zhuǎn)移到關(guān)系型數(shù)據(jù)庫(kù)中。Sqoop是java語(yǔ)言開(kāi)發(fā)的,底層使用 mapreduce 。 需要注意的是,Sqoop主要使用的是Map,是數(shù)據(jù)塊的轉(zhuǎn)移,沒(méi)有使

    2024年02月15日
    瀏覽(44)
  • Flink非對(duì)齊checkpoint原理(Flink Unaligned Checkpoint)

    Flink非對(duì)齊checkpoint原理(Flink Unaligned Checkpoint)

    為什么提出Unaligned Checkpoint(UC)? 因?yàn)榉磯簢?yán)重時(shí)會(huì)導(dǎo)致Checkpoint失敗,可能導(dǎo)致如下問(wèn)題 恢復(fù)時(shí)間長(zhǎng)-服務(wù)效率低 非冪等和非事務(wù)會(huì)導(dǎo)致數(shù)據(jù)重復(fù) 持續(xù)反壓導(dǎo)致任務(wù)加入死循環(huán)(可能導(dǎo)致數(shù)據(jù)丟失,例如超過(guò)kafka的過(guò)期時(shí)間無(wú)法重置offset) UC的原理 UC有兩個(gè)階段(UC主要是

    2024年02月14日
    瀏覽(28)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包