国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準

這篇具有很好參考價值的文章主要介紹了【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

關(guān)聯(lián)文章:
各種時間類型和timezone關(guān)系淺析

一、測試目的和值

1. 測試一般的數(shù)據(jù)庫不含time zone的類型的時區(qū)。

  • mysql timestamp(3) 類型
  • postgres timestamp(3) 類型
  • sqlserver datetime2(3) 類型
  • oracle類型 TIMESTAMP(3) 類型
    在以下測試之中均為ts字段

2.測試CDC中元數(shù)據(jù)op_ts 時區(qū)

op_tsTIMESTAMP_LTZ(3) NOT NULL當前記錄表在數(shù)據(jù)庫中更新的時間。如果從表的快照而不是 binlog 讀取記錄,該值將始終為0。|

在以下測試中cdc表建表均使用ts_ms TIMESTAMP_LTZ(3) METADATA FROM 'op_ts' VIRTUAL 表示。
cdc在讀取表時候分兩個階段:

  1. 全量讀取階段,特點是jdbc讀取,讀取數(shù)據(jù)中op=r
  2. 增量讀取階段,特點是log讀取,讀取數(shù)據(jù)中op=c或u或d
    op在截圖中看到如3="r" 或者 3="r",3是op字段的索引值。
    ts_ms在全量階段讀取數(shù)據(jù)以下成為READ數(shù)據(jù)
    ts_ms在增量階段讀取數(shù)據(jù)以下成為CREATE數(shù)據(jù)

3. flink 數(shù)據(jù)時間表示和時區(qū)

flink Table中時間必須使用org.apache.flink.table.data.TimestampData對象表示。

@PublicEvolving  
public final class TimestampData implements Comparable<TimestampData> {  
    private final long millisecond;  
    private final int nanoOfMillisecond;
}

此類型使用如下兩個值聯(lián)合表示記錄時間。并不記錄時區(qū)數(shù)據(jù)。

實戰(zhàn)測試:

@Test  
public void testTimeZone(){  
  
    // 常識:Epoch就是值utc的0時間點,是全局絕對時間點,本質(zhì)是`ZoneOffset.of("+0")`下的0時間。與`January 1, 1970, 00:00:00 GMT`視為等同。  
    // GMT是前世界標準時,UTC是現(xiàn)世界標準時。UTC 比 GMT更精準,以原子時計時,適應(yīng)現(xiàn)代社會的精確計時。  
    // 28800000=8*3600*1000。8小時毫秒值。  
  
    // 如下時間是+8時區(qū)的數(shù)據(jù)庫存儲的不帶時區(qū)的時間:2023-09-28T09:43:20.320  
    long ts=1695894200320L;  
  
    // 如果將ts當做utc時間0時刻轉(zhuǎn)為字符串則會導(dǎo)致時間+8 hour。2023-09-28 17:43:20。這是一般常用的在線轉(zhuǎn)換時間的結(jié)果。因其默認是是epoch時間,所以轉(zhuǎn)換后會+8h。  
    // 可見數(shù)據(jù)庫讀取的不帶timezone時間的毫秒值,并不是以utc0時間(epoch)為基準的,而是以當前時區(qū)0為基準的。  
  
    // LocalDateTime對象本質(zhì)支持LocalDate和LocalTime兩個對象,LocalDate持有Integer的`年`,`月`,`日`。LocalTime則持有Integer的`時`,`分`,`秒`等和java.util.Date類型并不一樣。  
    // LocalDateTime 的帶有ZoneOffset方法比較難理解,此處:  
    // epochSecond 當然值的是epoch的秒數(shù),是絕對時間概念和`java.util.Date.getTime()/1000`對應(yīng)的,而offset是指此epoch秒數(shù)需要偏移的時間量。  
    // 內(nèi)部代碼是`long localSecond = epochSecond + offset.getTotalSeconds();`。  
  
    // 如下代碼是正確的,因為java中的`java.util.Date`類和`java.sql.Timestamp`類型都是持有絕對時間的類,`Date.getTime`獲得也是相對于Epoch的毫秒值(Returns the number of milliseconds since January 1, 1970, 00:00:00 GMT)。  
    LocalDateTime ldtFromDate = LocalDateTime.ofEpochSecond(new Date().getTime() / 1000, 0, ZoneOffset.of("+8"));  
    System.out.println(ldtFromDate);  // 2023-09-28T16:16:45。此時時鐘也是16:17:44。  
    Date date0 = new Date(0); // number of milliseconds since the standard base time known as "the epoch"  
    System.out.println(date0.getTime()); // 0, date0.getTime()方法返回絕對時間Returns the number of milliseconds since January 1, 1970, 00:00:00 GMT  
  
    // 如下的提供`ZoneOffset.UTC`可以理解是告訴LocalDateTime我提供的epochSecond已是`localSecond=當?shù)貢r間-當?shù)貢r間的0點`不需要再做轉(zhuǎn)換了。  
    LocalDateTime ldt0 = LocalDateTime.ofEpochSecond(0L, 0, ZoneOffset.UTC);  
    System.out.println(ldt0); // 1970-01-01T00:00  
    LocalDateTime ldt8 = LocalDateTime.ofEpochSecond(0L, 0, ZoneOffset.of("+8"));  
    System.out.println(ldt8); // 1970-01-01T08:00  
  
    // TimestampData 默認不會進行任何時區(qū)轉(zhuǎn)換。也不存儲任何時區(qū)信息。內(nèi)部僅靠`long millisecond`和`int nanoOfMillisecond`存儲信息,以便于序列化。  
    // millisecond 一般可以認為是本地時間。因其在toString方法中會不會進行時區(qū)轉(zhuǎn)換,toString方法僅是調(diào)用了`toLocalDateTime()`,中進行簡單運算,并最終調(diào)用`LocalDateTime.toString`方法。  
    TimestampData td0 = TimestampData.fromEpochMillis(0); // 相當于LocalDateTime.ofEpochSecond(0, 0, ZoneOffset.UTC)。  
    System.out.println(td0); // 1970-01-01T00:00??梢奣imestampData輸出轉(zhuǎn)字符串的時間就是以utc時間為基準的這和java.util.Date類型是一致的。  
  
    LocalDateTime ldt = LocalDateTime.ofEpochSecond(  
            ts / 1000  
            , (int) (ts % 1000 * 1_000_000)  
            , ZoneOffset.UTC);  
    System.out.println(ldt); // 2023-09-28T09:43:20.320  
    TimestampData td = TimestampData.fromEpochMillis(ts);  
    System.out.println(td); // 2023-09-28T09:43:20.320  
  
    Date date = new Date(ts); // 注意:參數(shù)date(the specified number of milliseconds since the standard base time known as "the epoch")應(yīng)該是epoch但此時ts并不是epoch基準的而是本地local基準的。  
    System.out.println(date); // Thu Sep 28 17:43:20 CST 2023,CST就是北京時間了,其在toString方法中`BaseCalendar.Date date = normalize();`進行了時區(qū)轉(zhuǎn)換即+8了。  
}

4. 測試組件版本

  • flink 1.13
  • flink-cdc 2.2.1
  • flink-connector-jdbc 自己定制的,根據(jù)3.1.1-1.17版本修改而來。

二、本測試共測試四大數(shù)據(jù)庫:

  • mysql
  • postgres
  • sqlserver
  • oracle

二、每種數(shù)據(jù)庫測試8項:

  • database-SQL
    直接從數(shù)據(jù)中讀取數(shù)據(jù),是測試的基準值
  • cdc-RowData
    使用cdc的SQL API從數(shù)據(jù)庫中讀取值并在 com.ververica.cdc.debezium.table.AppendMetadataCollector#collect 方法中debug得到數(shù)據(jù)
  • cdc-SQL(測試除ts_ms的字段)
    使用cdc的SQL API讀取值使用flink sql-client查詢,用于測試除ts_ms的字段。因ts_ms準確性需分兩種情況討論。
  • cdc-SQL-RealTime(測試ts_ms)
    使用cdc的SQL API從讀取值,左上角是系統(tǒng)時間,下側(cè)是實時讀取的數(shù)據(jù)。
  • cdc-Read數(shù)據(jù)(測試snapshot讀取ts_ms字段)
    測試snapshot讀取ts_ms字段,即全量讀取階段的ts_ms值,按照flink-cdc官方解釋此四個數(shù)據(jù)的全量階段值均為0(1970-01-01 00:00:00)。非0即為不正確。
  • cdc-Create數(shù)據(jù)(測試incremental讀取ts_ms字段)
    測試incremental讀取ts_ms字段,即增量讀取階段的ts_ms值。按照flink-cdc官方解釋此四個數(shù)據(jù)的增量階段值為數(shù)據(jù)日志記錄時間。
  • jdbc-RowData
    使用flink SQL API 讀取connector是jdbc的表數(shù)據(jù)org.apache.flink.connector.jdbc.table.JdbcRowDataInputFormat#nextRecord的方法中debug得到數(shù)據(jù)。。不含tm_ms數(shù)據(jù)。
  • jdbc-SQL
    使用flink SQL API 讀取connector是jdbc的表數(shù)據(jù)。使用flink sql-client查詢。。不含tm_ms數(shù)據(jù)。

三、測試過程數(shù)據(jù)

3.1 mysql

3.1.1 database-SQL

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.1.2 cdc-RowData

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.1.3 cdc-SQL(測試除ts_ms的字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.1.4 cdc-SQL-RealTime(測試ts_ms)

如下:上側(cè)(win系統(tǒng)顯示時間截圖),下側(cè)(cdc-query的ts_ms)
如果基本一致(不是差值8h),說明cdc-query的ts_ms是正確的的。
【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.1.5 cdc-Read數(shù)據(jù)(測試snapshot讀取ts_ms字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.1.6 cdc-Create數(shù)據(jù)(測試incremental讀取ts_ms字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.1.7 jdbc-RowData

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.1.8 jdbc-SQL

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.2 postgres

3.2.1 database-SQL

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.2.2 cdc

cdc-RowData
【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.2.3 cdc-SQL(測試除ts_ms的字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.2.4 cdc-SQL-RealTime(測試ts_ms)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.2.5 cdc-Read數(shù)據(jù)(測試snapshot讀取ts_ms字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.2.6 cdc-Create數(shù)據(jù)(測試incremental讀取ts_ms字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.2.7 jdbc

jdbc-RowData
【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.2.8 jdbc-SQL

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.3 sqlserver

3.3.1 database-SQL

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.3.2 cdc-RowData

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.3.3 cdc-SQL(測試除ts_ms的字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.3.4 cdc-SQL-RealTime(測試ts_ms)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.3.5 cdc-Read數(shù)據(jù)(測試snapshot讀取ts_ms字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.3.6 cdc-Create數(shù)據(jù)(測試incremental讀取ts_ms字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.3.7 jdbc-RowData

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.3.8 jdbc-SQL

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.4 oracle

3.4.1 database-SQL

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.4.2 cdc-RowData

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.4.3 cdc-SQL(測試除ts_ms的字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.4.3 cdc-SQL-RealTime(測試ts_ms)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.4.4 cdc-Read數(shù)據(jù)(測試snapshot讀取ts_ms字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.4.5 cdc-Create數(shù)據(jù)(測試incremental讀取ts_ms字段)

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.4.7 jdbc-RowData

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

3.4.8 jdbc-SQL

【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)

四、結(jié)論

(1)數(shù)據(jù)庫獲取的without time zone在flink中都是以本地時間的存儲的。可以使用LocalDateTime.ofEpochSecond(long epochSecond, int nanoOfSecond, ZoneOffset.UTC)直接獲取。
(2)Flink中的TimestampData中存儲的一般可以認為是本地時間。但需要注意:TimestampData 不可將 instant 相關(guān)方法localDateTime 、Timestamp 相關(guān)方法混用。因為instant代表與epoch時間差。而后兩者代表與local是時間差。
(3)Flink程序中時間的標準值都是local本地的。因其在Sql API(sql-client)中打印出的結(jié)果會與原始數(shù)據(jù)庫中打印的一致。

如下圖中紅色字體的是錯誤的數(shù)據(jù),使用CDC需要額外注意并進行轉(zhuǎn)換。
【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準,flink,大數(shù)據(jù)文章來源地址http://www.zghlxwxcb.cn/news/detail-737634.html

五、附錄

5.1 查詢數(shù)據(jù)庫時區(qū)SQL

-- mysql 以:time_zone 為準,system_time_zone至服務(wù)器時區(qū)
show variables like '%time_zone%';

-- postgres
show time zone;

-- sqlserver
DECLARE
@TimeZone NVARCHAR(255)
EXEC
master.dbo.xp_instance_regread
N'HKEY_LOCAL_MACHINE'
,
N'SYSTEM\CurrentControlSet\Control\TimeZoneInformation'
,
N'TimeZoneKeyName'
,
@TimeZone
OUTPUT
SELECT
@TimeZone 

-- oracle
select dbtimezone from dual;

到了這里,關(guān)于【時區(qū)】Flink JDBC 和CDC時間字段時區(qū) 測試及時間基準的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Flink SQL 時區(qū) -- 時間字符串轉(zhuǎn)時間戳并轉(zhuǎn)換時區(qū)

    將時間字符串格式化,轉(zhuǎn)變成時間戳,再加8小時后寫入clickhouse (該方法默認精確度為秒,不適用毫秒) (1)UNIX_TIMESTAMP 作用:將時間字符串轉(zhuǎn)換成時間戳 用法:UNIX_TIMESTAMP(STRING datestr, STRING format) (2)CONVERT_TZ 作用:轉(zhuǎn)換時區(qū) 用法:CONVERT_TZ(string1, string2, string3) (實測僅獲

    2024年02月04日
    瀏覽(23)
  • Flink CDC SQL Oracle to Postgresql與jdbc連接oracle報錯處理

    Flink CDC SQL Oracle to Postgresql與jdbc連接oracle報錯處理

    flink-cdc官網(wǎng):Oracle CDC Connector — CDC Connectors for Apache Flink? documentation Flink環(huán)境依賴: (3)啟用日志歸檔 (4)檢查是否啟用了日志歸檔 (5)創(chuàng)建具有權(quán)限的 Oracle 用戶 (5.1)。創(chuàng)建表空間 (5.2)。創(chuàng)建用戶并授予權(quán)限 Flink SQL 客戶端連接器測試: 創(chuàng)建 Oracle 鏈接器 返回內(nèi)容 以上代

    2024年02月11日
    瀏覽(23)
  • 【Flink-Kafka-To-Mongo】使用 Flink 實現(xiàn) Kafka 數(shù)據(jù)寫入 Mongo(根據(jù)對應(yīng)操作類型進行增、刪、改操作,寫入時對時間類型字段進行單獨處理)

    需求描述: 1、數(shù)據(jù)從 Kafka 寫入 Mongo。 2、相關(guān)配置存放于 Mysql 中,通過 Mysql 進行動態(tài)讀取。 3、此案例中的 Kafka 是進行了 Kerberos 安全認證的,如果不需要自行修改。 4、Kafka 數(shù)據(jù)為 Json 格式,獲取到的數(shù)據(jù)根據(jù)操作類型字段進行增刪改操作。 5、讀取時使用自定義 Source,寫

    2024年02月22日
    瀏覽(31)
  • flink cdc多種數(shù)據(jù)源安裝、配置與驗證
flink cdc多種數(shù)據(jù)源安裝、配置與驗證

    flink cdc多種數(shù)據(jù)源安裝、配置與驗證 flink cdc多種數(shù)據(jù)源安裝、配置與驗證

    ? 搜索 文章目錄 1. 前言 2. 數(shù)據(jù)源安裝與配置 2.1 MySQL 2.1.1 安裝 2.1.2 CDC 配置 2.2 Postgresql 2.2.1 安裝 2.2.2 CDC 配置 2.3 Oracle 2.3.1 安裝 2.3.2 CDC 配置 2.4 SQLServer 2.4.1 安裝 2.4.2 CDC 配置 3. 驗證 3.1 Flink版本與CDC版本的對應(yīng)關(guān)系 3.2 下載相關(guān)包 3.3 添加cdc jar 至lib目錄 3.4 驗證 本文目錄結(jié)構(gòu)

    2024年02月09日
    瀏覽(49)
  • 大數(shù)據(jù)Flink(八十一):SQL 時區(qū)問題

    大數(shù)據(jù)Flink(八十一):SQL 時區(qū)問題

    文章目錄 SQL 時區(qū)問題 ???????一、SQL 時區(qū)解決的問題

    2024年02月07日
    瀏覽(26)
  • Flink CDC數(shù)據(jù)同步

    Flink CDC數(shù)據(jù)同步

    一、什么是FLink Apache?Flink?是一個框架和分布式處理引擎,用于在無邊界和有邊界數(shù)據(jù)流上進行有狀態(tài)的計算。Flink?能在所有常見集群環(huán)境中運行,并能以內(nèi)存速度和任意規(guī)模進行計算。 接下來,我們來介紹一下?Flink?架構(gòu)中的重要方面。 任何類型的數(shù)據(jù)都可以形成一種事

    2024年02月08日
    瀏覽(21)
  • 【FLINK】Kafka數(shù)據(jù)源通過Flink-cdc進行實時數(shù)據(jù)同步

    【FLINK】Kafka數(shù)據(jù)源通過Flink-cdc進行實時數(shù)據(jù)同步

    CDC是Change Data Capture的縮寫,中文意思是 變更數(shù)據(jù)獲取 ,flink-cdc的作用是,通過flink捕獲數(shù)據(jù)源的事務(wù)變動操作記錄,包括數(shù)據(jù)的增刪改操作等,根據(jù)這些記錄可作用于對目標端進行實時數(shù)據(jù)同步。 下圖是flink-cdc最新支持的數(shù)據(jù)源類型: kafka的數(shù)據(jù)源要通過flink-cdc進行實時數(shù)

    2024年02月12日
    瀏覽(36)
  • 【大數(shù)據(jù)】Flink 詳解(十):SQL 篇 Ⅲ(Flink SQL CDC)

    【大數(shù)據(jù)】Flink 詳解(十):SQL 篇 Ⅲ(Flink SQL CDC)

    《 Flink 詳解 》系列(已完結(jié)),共包含以下 10 10 10 篇文章: 【大數(shù)據(jù)】Flink 詳解(一):基礎(chǔ)篇(架構(gòu)、并行度、算子) 【大數(shù)據(jù)】Flink 詳解(二):核心篇 Ⅰ(窗口、WaterMark) 【大數(shù)據(jù)】Flink 詳解(三):核心篇 Ⅱ(狀態(tài) State) 【大數(shù)據(jù)】Flink 詳解(四):核心篇

    2024年01月25日
    瀏覽(55)
  • 【實戰(zhàn)-01】flink cdc 實時數(shù)據(jù)同步利器

    【實戰(zhàn)-01】flink cdc 實時數(shù)據(jù)同步利器

    cdc github源碼地址 cdc官方文檔 對很多初入門的人來說是無法理解cdc到底是什么個東西。 有這樣一個需求,比如在mysql數(shù)據(jù)庫中存在很多數(shù)據(jù),但是公司要把mysql中的數(shù)據(jù)同步到數(shù)據(jù)倉庫(starrocks), 數(shù)據(jù)倉庫你可以理解為存儲了各種各樣來自不同數(shù)據(jù)庫中表。 數(shù)據(jù)的同步目前對

    2023年04月08日
    瀏覽(94)
  • 【大數(shù)據(jù)】Flink CDC 的概覽和使用

    【大數(shù)據(jù)】Flink CDC 的概覽和使用

    CDC ( Change Data Capture , 數(shù)據(jù)變更抓取 )是一種用于跟蹤數(shù)據(jù)庫中數(shù)據(jù)更改的技術(shù)。它用于監(jiān)視數(shù)據(jù)庫中的變化,并捕獲這些變化,以便實時或定期將變化的數(shù)據(jù)同步到其他系統(tǒng)、數(shù)據(jù)倉庫或分析平臺。CDC 技術(shù)通常用于數(shù)據(jù)復(fù)制、數(shù)據(jù)倉庫更新、實時報告和數(shù)據(jù)同步等場景。

    2024年01月24日
    瀏覽(33)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包