国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

flink cdc同步Oracle數(shù)據(jù)庫資料到Doris問題集錦

這篇具有很好參考價值的文章主要介紹了flink cdc同步Oracle數(shù)據(jù)庫資料到Doris問題集錦。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

問題1:flink 1.14 包 org.apache.flink.shaded.guava 版本沖突

java.lang.NoClassDefFoundError: org/apache/flink/shaded/guava18/com/google/common/util/concurrent/ThreadFactoryBuilder

at com.ververica.cdc.debezium.DebeziumSourceFunction.open(DebeziumSourceFunction.java:218) ~[flink-connector-debezium-2.2.0.jar:2.2.0]

at org.apache.flink.api.common.functions.util.FunctionUtils.openFunction(FunctionUtils.java:34) ~[flink-core-1.14.2.jar:1.14.2]

at org.apache.flink.streaming.api.operators.AbstractUdfStreamOperator.open(AbstractUdfStreamOperator.java:100) ~[flink-streaming-java_2.12-1.14.2.jar:1.14.2]

at org.apache.flink.streaming.runtime.tasks.RegularOperatorChain.initializeStateAndOpenOperators(RegularOperatorChain.java:110) ~[flink-streaming-java_2.12-1.14.2.jar:1.14.2]

at org.apache.flink.streaming.runtime.tasks.StreamTask.restoreGates(StreamTask.java:711) ~[flink-streaming-java_2.12-1.14.2.jar:1.14.2]

at org.apache.flink.streaming.runtime.tasks.StreamTaskActionExecutor$SynchronizedStreamTaskActionExecutor.call(StreamTaskActionExecutor.java:100) ~[flink-streaming-java_2.12-1.14.2.jar:1.14.2]

at org.apache.flink.streaming.runtime.tasks.StreamTask.restoreInternal(StreamTask.java:687) ~[flink-streaming-java_2.12-1.14.2.jar:1.14.2]

at org.apache.flink.streaming.runtime.tasks.StreamTask.restore(StreamTask.java:654) ~[flink-streaming-java_2.12-1.14.2.jar:1.14.2]

at org.apache.flink.runtime.taskmanager.Task.runWithSystemExitMonitoring(Task.java:958) ~[flink-runtime-1.14.2.jar:1.14.2]

at org.apache.flink.runtime.taskmanager.Task.restoreAndInvoke(Task.java:927) ~[flink-runtime-1.14.2.jar:1.14.2]

at org.apache.flink.runtime.taskmanager.Task.doRun(Task.java:766) ~[flink-runtime-1.14.2.jar:1.14.2]

at org.apache.flink.runtime.taskmanager.Task.run(Task.java:575) ~[flink-runtime-1.14.2.jar:1.14.2]

at java.lang.Thread.run(Thread.java:750) ~[?:1.8.0_321]

根據(jù)網(wǎng)友建議,重新引入flink-shaded-guava,重新制定沖突依賴

<dependency>

<groupId>org.apache.flink</groupId>

<artifactId>flink-shaded-guava</artifactId>

<version>18.0-13.0</version>

</dependency>

繼續(xù)報異常

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/flink/shaded/guava30/com/google/common/collect/Lists

at org.apache.flink.streaming.api.transformations.LegacySinkTransformation.getTransitivePredecessors(LegacySinkTransformation.java:117)

at org.apache.flink.streaming.api.graph.StreamGraphGenerator.lambda$existsUnboundedSource$1(StreamGraphGenerator.java:481)

at java.util.stream.MatchOps$1MatchSink.accept(MatchOps.java:90)

at java.util.ArrayList$ArrayListSpliterator.tryAdvance(ArrayList.java:1361)

at java.util.stream.ReferencePipeline.forEachWithCancel(ReferencePipeline.java:126)

at java.util.stream.AbstractPipeline.copyIntoWithCancel(AbstractPipeline.java:499)

at java.util.stream.AbstractPipeline.copyInto(AbstractPipeline.java:486)

at java.util.stream.AbstractPipeline.wrapAndCopyInto(AbstractPipeline.java:472)

at java.util.stream.MatchOps$MatchOp.evaluateSequential(MatchOps.java:230)

at java.util.stream.MatchOps$MatchOp.evaluateSequential(MatchOps.java:196)

at java.util.stream.AbstractPipeline.evaluate(AbstractPipeline.java:234)

at java.util.stream.ReferencePipeline.anyMatch(ReferencePipeline.java:449)

at org.apache.flink.streaming.api.graph.StreamGraphGenerator.existsUnboundedSource(StreamGraphGenerator.java:478)

at org.apache.flink.streaming.api.graph.StreamGraphGenerator.shouldExecuteInBatchMode(StreamGraphGenerator.java:459)

at org.apache.flink.streaming.api.graph.StreamGraphGenerator.generate(StreamGraphGenerator.java:309)

at org.apache.flink.streaming.api.environment.StreamExecutionEnvironment.getStreamGraph(StreamExecutionEnvironment.java:2083)

at org.apache.flink.streaming.api.environment.StreamExecutionEnvironment.getStreamGraph(StreamExecutionEnvironment.java:2069)

at org.apache.flink.streaming.api.environment.StreamExecutionEnvironment.execute(StreamExecutionEnvironment.java:1899)

at com.zsfs.hz.task.Oracle2DorisFlinkCDCTest.main(Oracle2DorisFlinkCDCTest.java:56)

最后解決方式:

一開始flink使用的是1.14.2,flink-connector-jdbc版本也是1.14.2;這兩個依賴中使用的flink-shaded-guava版本不一致。flink使用的是guava30,connect使用的是guava18。我這邊將flink版本降成1.13.6,然后問題就解決了

備注:目前flink14和flink15沒有怎么解決這個問題,帶后續(xù)解決后,再升級flink集群文章來源地址http://www.zghlxwxcb.cn/news/detail-568415.html

到了這里,關(guān)于flink cdc同步Oracle數(shù)據(jù)庫資料到Doris問題集錦的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 60、Flink CDC 入門介紹及Streaming ELT示例(同步Mysql數(shù)據(jù)庫數(shù)據(jù)到Elasticsearch)-CDC Connector介紹及示例 (1)

    60、Flink CDC 入門介紹及Streaming ELT示例(同步Mysql數(shù)據(jù)庫數(shù)據(jù)到Elasticsearch)-CDC Connector介紹及示例 (1)

    一、Flink 專欄 Flink 專欄系統(tǒng)介紹某一知識點,并輔以具體的示例進行說明。 1、Flink 部署系列 本部分介紹Flink的部署、配置相關(guān)基礎(chǔ)內(nèi)容。 2、Flink基礎(chǔ)系列 本部分介紹Flink 的基礎(chǔ)部分,比如術(shù)語、架構(gòu)、編程模型、編程指南、基本的datastream api用法、四大基石等內(nèi)容。 3、

    2024年02月19日
    瀏覽(21)
  • Flink CDC2.4 整庫實時同步MySql 到Doris

    ????????Flink 1.15.4? ? ? ? ? 目前有很多工具都支持無代碼實現(xiàn)Mysql - Doris 的實時同步 ? ? ? ? 如:SlectDB 已發(fā)布的功能包 ? ? ? ? ? ? ? ??Dinky?SeaTunnel?TIS?等等 ? ? ? ? ?不過好多要么不支持表結(jié)構(gòu)變動,要不不支持多sink,我們的業(yè)務(wù)必須支持對表結(jié)構(gòu)的實時級變動

    2024年02月11日
    瀏覽(34)
  • flink oracle cdc實時同步(超詳細)

    flink oracle cdc實時同步(超詳細)

    官方文檔:https://github.com/ververica/flink-cdc-connectors/blob/release-master/docs/content/connectors/oracle-cdc.md 本文參照官方文檔來記錄Oracle CDC 的配置。 在本文開始前,需要先安裝Oracle,有興趣的同學可以參考博主之前寫的《docker下安裝oracle11g(一次安裝成功)》。 如果要做oracle的實時同步

    2024年02月12日
    瀏覽(21)
  • flink cdc MySQL2Doris 案例分享 解決分庫多表同步

    使用flink cdc,完成mysql 多庫 多表同時同步到doris中 flink 1.14.4 doris 1.1.0 flink-connector-mysql-cdc 2.2.1版本 一直會報異常 java.lang.NoClassDefFoundError: org/apache/flink/shaded/guava18/com/google/common/util/concurrent/ThreadFactoryBuilder 從官網(wǎng)下載依賴,然后本地添加進去flink-sql-connector-mysql-cdc-2.2.0 由于 U

    2023年04月09日
    瀏覽(19)
  • flink cdc 連接posgresql 數(shù)據(jù)庫相關(guān)問題整理

    flink cdc 連接posgresql 數(shù)據(jù)庫相關(guān)問題整理

    01 、flink posgresql cdc 前置工作 1,更改配置文件postgresql.conf wal_level是必須更改的,其它參數(shù)選著性更改,如果同步表數(shù)量超過10張建議修改為合適的值 更改配置文件postgresql.conf完成,需要重啟pg服務(wù)生效,所以一般是在業(yè)務(wù)低峰期更改 2,新建用戶并且給用戶復制流權(quán)限 3,發(fā)

    2024年02月07日
    瀏覽(25)
  • Flink CDC 基于Oracle log archiving 實時同步Oracle表到Mysql

    Flink CDC 基于Oracle log archiving 實時同步Oracle表到Mysql

    環(huán)境說明: flink 1.15.2 Oracle 版本:Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64bit Production mysql 版本:5.7 windows11 IDEA 本地運行 先上官網(wǎng)使用說明和案例:Oracle CDC Connector — Flink CDC documentation 1. Oracle 開啟 log archiving (1).啟用 log archiving ?? ??? ?a:以DBA用戶連接數(shù)據(jù)庫? ??

    2024年02月11日
    瀏覽(44)
  • Flink CDC 基于Oracle log archiving 實時同步Oracle表到Mysql(無主鍵)

    環(huán)境說明: flink 1.15.2 Oracle 版本:Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64bit Production mysql 版本:5.7 windows11 IDEA 本地運行 具體環(huán)境設(shè)置和maven依賴請看上篇:Flink CDC 基于Oracle log archiving 實時同步Oracle表到Mysql_彩虹豆的博客-CSDN博客 現(xiàn)在操作的是源表和目標表都無主鍵數(shù)

    2024年02月15日
    瀏覽(30)
  • Flink系列之:使用Flink CDC從數(shù)據(jù)庫采集數(shù)據(jù),設(shè)置checkpoint支持數(shù)據(jù)采集中斷恢復,保證數(shù)據(jù)不丟失

    博主相關(guān)技術(shù)博客: Flink系列之:Debezium采集Mysql數(shù)據(jù)庫表數(shù)據(jù)到Kafka Topic,同步kafka topic數(shù)據(jù)到StarRocks數(shù)據(jù)庫 Flink系列之:使用Flink Mysql CDC基于Flink SQL同步mysql數(shù)據(jù)到StarRocks數(shù)據(jù)庫

    2024年02月11日
    瀏覽(30)
  • 使用Flink CDC從數(shù)據(jù)庫采集數(shù)據(jù),保證數(shù)據(jù)不丟失:實現(xiàn)斷點續(xù)傳機制

    大數(shù)據(jù)技術(shù)在當前的數(shù)據(jù)分析和處理中扮演著重要的角色。Apache Flink作為一種快速、可靠的流處理引擎,在大規(guī)模數(shù)據(jù)處理中廣受歡迎。本文將介紹如何使用Flink CDC(Change Data Capture)從數(shù)據(jù)庫采集數(shù)據(jù),并通過設(shè)置checkpoint來支持數(shù)據(jù)采集中斷恢復,從而保證數(shù)據(jù)不丟失。

    2024年02月04日
    瀏覽(26)
  • 【開發(fā)問題】flink-cdc不用數(shù)據(jù)庫之間的,不同類型的轉(zhuǎn)化

    【開發(fā)問題】flink-cdc不用數(shù)據(jù)庫之間的,不同類型的轉(zhuǎn)化

    我一開始是flink-cdc,oracle2Mysql,sql 我一開始直接用的oracle【date】類型,mysql【date】類型,sql的校驗通過了,但是真正操作數(shù)據(jù)的時候報錯,告訴我oracle的數(shù)據(jù)格式的日期數(shù)據(jù),不可以直接插入到mysql格式的日期數(shù)據(jù),說白了就是數(shù)據(jù)格式不一致導致的 我想的是既然格式不對

    2024年02月12日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包