国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Flink CDC介紹及原理

這篇具有很好參考價值的文章主要介紹了Flink CDC介紹及原理。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

CDC (Change Data Capture) 是一種用于捕捉數(shù)據(jù)庫變更數(shù)據(jù)的技術(shù),F(xiàn)link 從 1.11 版本開始原生支持 CDC 數(shù)據(jù)(changelog)的處理,目前已經(jīng)是非常成熟的變更數(shù)據(jù)處理方案。

Flink CDC Connectors 是 Flink 的一組 Source 連接器,是 Flink CDC 的核心組件,這些連接器負(fù)責(zé)從?MySQL、PostgreSQL、Oracle、MongoDB?等數(shù)據(jù)庫讀取存量歷史數(shù)據(jù)和增量變更數(shù)據(jù)。在 2020 年 7 月開源,社區(qū)保持了相當(dāng)高速的發(fā)展,平均兩個月一個版本,在開源社區(qū)的關(guān)注度持續(xù)走高,也逐漸有越來越多的用戶使用 Flink CDC 來快速構(gòu)建實時數(shù)倉和數(shù)據(jù)湖。

Flink CDC 2.1的改進(jìn)

Flink CDC 2.1 版本重點提升了?MySQL CDC?連接器的性能和生產(chǎn)穩(wěn)定性,重磅推出?Oracle CDC?連接器和?MongoDB CDC?連接器。新增內(nèi)容如下:

(1)MySQL CDC 支持百億級數(shù)據(jù)的超大表,支持 MySQL 全部數(shù)據(jù)類型,通過連接池復(fù)用等優(yōu)化大幅提升穩(wěn)定性。同時提供支持無鎖算法,并發(fā)讀取的 DataStream API,用戶可以借此搭建整庫同步鏈路;

(2)新增 Oracle CDC 連接器, 支持從 Oracle 數(shù)據(jù)庫獲取全量歷史數(shù)據(jù)增量變更數(shù)據(jù);

(3)新增 MongoDB CDC 連接器,支持從 MongoDB 數(shù)據(jù)庫獲取全量歷史數(shù)據(jù)增量變更數(shù)據(jù);

(4)所有連接器均支持metadata column?功能, 用戶通過 SQL 就可以訪問庫名,表名,數(shù)據(jù)變更時間等 meta 信息,這對分庫分表場景的數(shù)據(jù)集成非常實用;

豐富 Flink CDC 入門文檔,增加多種場景的端到端實踐教程。

Flink CDC 1.x 問題點

1、加鎖時間不確定,極端情況會鎖住數(shù)據(jù)庫

針對 一致性加鎖的痛點 Flink cdc 2.x 借鑒 Netflix 的 DBlog paper 設(shè)計了全程無鎖算法

2、因為 Flink CDC 底層是基于 Debezium,Debezium 架構(gòu)是單節(jié)點,所以 Flink CDC 1.x?只支持單并發(fā)。在全量讀取階段,如果表非常大 (億級別),讀取時間在小時甚至天級別,用戶不能通過增加資源去提升作業(yè)速度。

3、全量讀取階段不支持 checkpoint

Flink CDC ?讀取分為兩個階段,全量讀取和增量讀取,目前全量讀取階段是不支持 checkpoint 的;

因此會存在一個問題:當(dāng)我們同步全量數(shù)據(jù)時,假設(shè)需要 5 個小時,當(dāng)我們同步了 4 小時的時候作業(yè)失敗,這時候就需要重新開始,再讀取 5 個小時。

Flink cdc 2.x 中定期為源執(zhí)行檢查點,在故障轉(zhuǎn)移的情況下,作業(yè)將從上次成功的檢查點狀態(tài)重新啟動并恢復(fù),并保證恰好一次語義

Flink CDC 高頻面試 13 問(萬字長文吐血總結(jié)!)文章來源地址http://www.zghlxwxcb.cn/news/detail-506567.html

到了這里,關(guān)于Flink CDC介紹及原理的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 60、Flink CDC 入門介紹及Streaming ELT示例(同步Mysql數(shù)據(jù)庫數(shù)據(jù)到Elasticsearch)-CDC Connector介紹及示例 (1)

    60、Flink CDC 入門介紹及Streaming ELT示例(同步Mysql數(shù)據(jù)庫數(shù)據(jù)到Elasticsearch)-CDC Connector介紹及示例 (1)

    一、Flink 專欄 Flink 專欄系統(tǒng)介紹某一知識點,并輔以具體的示例進(jìn)行說明。 1、Flink 部署系列 本部分介紹Flink的部署、配置相關(guān)基礎(chǔ)內(nèi)容。 2、Flink基礎(chǔ)系列 本部分介紹Flink 的基礎(chǔ)部分,比如術(shù)語、架構(gòu)、編程模型、編程指南、基本的datastream api用法、四大基石等內(nèi)容。 3、

    2024年02月19日
    瀏覽(21)
  • 業(yè)務(wù)數(shù)據(jù)同步工具介紹和使用(Sqoop、Datax、Canal、MaxWell、Flink CDC)

    業(yè)務(wù)數(shù)據(jù)同步工具介紹和使用(Sqoop、Datax、Canal、MaxWell、Flink CDC)

    介紹 Sqoop : SQ L-to-Had oop ( Apache已經(jīng)終止Sqoop項目 ) 用途:把關(guān)系型數(shù)據(jù)庫的數(shù)據(jù)轉(zhuǎn)移到HDFS(Hive、Hbase)(重點使用的場景);Hadoop中的數(shù)據(jù)轉(zhuǎn)移到關(guān)系型數(shù)據(jù)庫中。Sqoop是java語言開發(fā)的,底層使用 mapreduce 。 需要注意的是,Sqoop主要使用的是Map,是數(shù)據(jù)塊的轉(zhuǎn)移,沒有使

    2024年02月15日
    瀏覽(44)
  • 55、Flink之用于外部數(shù)據(jù)訪問的異步 I/O介紹及示例

    一、Flink 專欄 Flink 專欄系統(tǒng)介紹某一知識點,并輔以具體的示例進(jìn)行說明。 1、Flink 部署系列 本部分介紹Flink的部署、配置相關(guān)基礎(chǔ)內(nèi)容。 2、Flink基礎(chǔ)系列 本部分介紹Flink 的基礎(chǔ)部分,比如術(shù)語、架構(gòu)、編程模型、編程指南、基本的datastream api用法、四大基石等內(nèi)容。 3、

    2024年01月17日
    瀏覽(17)
  • 一種基于動態(tài)水位值的Flink調(diào)度優(yōu)化算法(flink1.5以前),等同于實現(xiàn)flink的Credit-based反壓原理

    一種基于動態(tài)水位值的Flink調(diào)度優(yōu)化算法(flink1.5以前),等同于實現(xiàn)flink的Credit-based反壓原理

    首先說明,偶然看了個論文,發(fā)現(xiàn) flink優(yōu)化原來比我想象中的更簡單,得到了一些啟發(fā),所以寫下這篇帖子,供大家共同學(xué)習(xí)。 看到的論文是《計算機科學(xué)與應(yīng)用》21年11月的一篇 名字就叫做 : 一種基于動態(tài)水位值的Flink調(diào)度優(yōu)化算法。感興趣的小伙伴可以自己看一下 ,很

    2024年02月22日
    瀏覽(19)
  • 【原理圖專題】OrCAD Capture 設(shè)計規(guī)則(DRC)檢查

    【原理圖專題】OrCAD Capture 設(shè)計規(guī)則(DRC)檢查

    在原理圖設(shè)計完成后,需要進(jìn)行DRC檢查,DRC檢查能協(xié)助工程師快速檢查原理圖的物理、電氣規(guī)則是否正確,能快速定位錯誤和原因。 DRC 檢查從Capture 工具欄中如下圖紅框所示的圖標(biāo)中Design Rules Check進(jìn)入 進(jìn)入后將打開DRC窗口,有四個選項卡。分別是Design Rules Options、Electrical

    2023年04月22日
    瀏覽(26)
  • 56、Flink 的Data Source 原理介紹

    56、Flink 的Data Source 原理介紹

    一、Flink 專欄 Flink 專欄系統(tǒng)介紹某一知識點,并輔以具體的示例進(jìn)行說明。 1、Flink 部署系列 本部分介紹Flink的部署、配置相關(guān)基礎(chǔ)內(nèi)容。 2、Flink基礎(chǔ)系列 本部分介紹Flink 的基礎(chǔ)部分,比如術(shù)語、架構(gòu)、編程模型、編程指南、基本的datastream api用法、四大基石等內(nèi)容。 3、

    2024年01月21日
    瀏覽(14)
  • Flink系列之:Flink CDC深入了解MySQL CDC連接器

    Flink系列之:Flink CDC深入了解MySQL CDC連接器

    增量快照讀取是一種讀取表快照的新機制。與舊的快照機制相比,增量快照具有許多優(yōu)點,包括: (1)在快照讀取期間,Source 支持并發(fā)讀取 (2)在快照讀取期間,Source 支持進(jìn)行 chunk 粒度的 checkpoint (3)在快照讀取之前,Source 不需要數(shù)據(jù)庫鎖權(quán)限。 如果希望 source 并行運

    2024年02月02日
    瀏覽(30)
  • Flink學(xué)習(xí)13-Flink CDC

    Flink學(xué)習(xí)13-Flink CDC

    一、CDC簡介 cdc全稱 Change Data Capture 變更數(shù)據(jù)捕獲。通俗來講只要能捕獲到變更的數(shù)據(jù)的技術(shù)都可以稱為cdc。常見的開源技術(shù)有以下幾種: canal:https://github.com/alibaba/canal maxwell:https://github.com/zendesk/maxwell Debezium:https://github.com/debezium/debezium flink-cdc:https://github.com/ververica/fli

    2024年01月16日
    瀏覽(18)
  • Flink CDC系列之:Oracle CDC 導(dǎo)入 Elasticsearch

    Flink CDC系列之:Oracle CDC Connector 該 Docker Compose 中包含的容器有: Oracle: Oracle 11g, 已經(jīng)預(yù)先創(chuàng)建了 products 和 orders表,并插入了一些數(shù)據(jù) Elasticsearch: orders 表將和 products 表進(jìn)行join,join的結(jié)果寫入Elasticsearch中 Kibana: 可視化 Elasticsearch 中的數(shù)據(jù) 在 docker-compose.yml 所在目錄下運行如下

    2024年02月12日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包