国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用flink sqlserver cdc 同步數(shù)據(jù)到StarRocks

這篇具有很好參考價(jià)值的文章主要介紹了使用flink sqlserver cdc 同步數(shù)據(jù)到StarRocks。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

前沿: flink cdc功能越發(fā)強(qiáng)大,支持的數(shù)據(jù)源也越多,本篇介紹使用flink cdc實(shí)現(xiàn):

sqlserver-》(using flink cdc)-〉flink -》(using flink starrocks connector)-〉starrocks整個(gè)流程

使用flink sqlserver cdc 同步數(shù)據(jù)到StarRocks,sqlserver,starrocks,flink

1.sqlserver 環(huán)境準(zhǔn)備(得使用sqlserver 16以下版本,flink cdc當(dāng)前只支持16以下sqlserver版本)

我這個(gè)使用的是docker環(huán)境:

xiuchenggong@xiuchengdeMacBook-Pro ~ % docker images
REPOSITORY                                          TAG                            IMAGE ID       CREATED         SIZE
starrocks.docker.scarf.sh/starrocks/allin1-ubuntu   latest                         4d3c0066a012   3 days ago      4.71GB
mcr.microsoft.com/mssql/server                      2019-latest                    e7fc0b49be3c   4 weeks ago     1.47GB
mcr.microsoft.com/mssql/server                      2022-latest                    683d523cd395   5 weeks ago     2.9GB
federatedai/standalone_fate                         latest                         6019ec787699   9 months ago    5.29GB
milvusdb/milvus                                     v2.1.4                         d9a5c977c414   11 months ago   711MB
starrocks/dev-env                                   main                           8f4edba3b115   16 months ago   7.65GB
minio/minio                                         RELEASE.2022-03-17T06-34-49Z   239acc52a73a   17 months ago   228MB
kicbase/stable                                      v0.0.29                        64d09634c60d   20 months ago   1.14GB
quay.io/coreos/etcd                                 v3.5.0                         a7908fd5fb88   2 years ago     110MB
docker run -e 'ACCEPT_EULA=Y' -e 'SA_PASSWORD=abc@123456' -p 30027:1433 --name sql_server_2019 -d mcr.microsoft.com/mssql/server:2019-latest

docker exec -it --user root sql_server_2019 bash

開(kāi)啟代理,重啟sqlserver環(huán)境,連接:?

xiuchenggong@xiuchengdeMacBook-Pro ~ % docker exec -it --user root sql_server_2019 bash
root@99e196828047:/# /opt/mssql/bin/mssql-conf set sqlagent.enabled true
SQL Server needs to be restarted in order to apply this setting. Please run
'systemctl restart mssql-server.service'.
root@99e196828047:/# exit
exit
xiuchenggong@xiuchengdeMacBook-Pro ~ % docker restart sql_server_2019
sql_server_2019
xiuchenggong@xiuchengdeMacBook-Pro ~ % docker exec -it --user root sql_server_2019 bash

root@99e196828047:/# /opt/mssql-tools/bin/sqlcmd -S localhost -U SA -P "abc@123456"

開(kāi)啟sqlserver cdc功能:


root@99e196828047:/# /opt/mssql-tools/bin/sqlcmd -S localhost -U SA -P "abc@123456"
1> use cdc_test;
2> go
Changed database context to 'cdc_test'.
1> EXEC sys.sp_cdc_enable_db;
2> go
1> SELECT is_cdc_enabled FROM sys.databases WHERE name = 'cdc_test';
2> go
is_cdc_enabled

1> CREATE TABLE orders (id int,order_date date,purchaser int,quantity int,product_id int,PRIMARY KEY ([id]))
2> go
1>
2>
3> EXEC sys.sp_cdc_enable_table
4> @source_schema = 'dbo',
5> @source_name   = 'orders',
6> @role_name     = 'cdc_role';
7> go


Job 'cdc.cdc_test_capture' started successfully.
Job 'cdc.cdc_test_cleanup' started successfully.


          

插入一些數(shù)據(jù):

1> select * from orders;
2> go
id          order_date       purchaser   quantity    product_id
----------- ---------------- ----------- ----------- -----------
          1       2023-07-07           1           1           1
          2       2023-07-07           2           2           2
          3       2023-07-07           3           3           3
          4       2023-07-07           4           4           4
         45       2023-07-07           5           5           5

(5 rows affected)
1> update orders set quantity = 100 where id =1 ;
2> go

(1 rows affected)
1> select * from orders;
2> go
id          order_date       purchaser   quantity    product_id
----------- ---------------- ----------- ----------- -----------
          1       2023-07-07           1         100           1
          2       2023-07-07           2           2           2
          3       2023-07-07           3           3           3
          4       2023-07-07           4           4           4
         45       2023-07-07           5           5           5

(5 rows affected)
1> update orders set quantity = 200 where id = 2;
2> go

2.準(zhǔn)備flink環(huán)境:

  • 下載flink 1.16.2 (官網(wǎng)下載)
  • 下載flink sqlserver cdc 2.2.0 (Central Repository: com/ververica/flink-cdc-connectors)
  • 下載flink starrocks connector 1.15(這個(gè)應(yīng)該也要下載對(duì)應(yīng)版本1.16.2,但官方還沒(méi)出,我拿1.15測(cè)試了也ok)下載鏈接:Release Release 1.2.6 · StarRocks/starrocks-connector-for-apache-flink · GitHub

使用flink sqlserver cdc 同步數(shù)據(jù)到StarRocks,sqlserver,starrocks,flink

3.準(zhǔn)備starrocks docker環(huán)境:

見(jiàn)鏈接:使用 Docker 部署 StarRocks @ deploy_with_docker @ StarRocks Docs

4.啟動(dòng)flink環(huán)境(cd {FLINK_HOME}):

xiuchenggong@xiuchengdeMacBook-Pro bin % ./start-cluster.sh 
Starting cluster.
Starting standalonesession daemon on host xiuchengdeMacBook-Pro.local.
Starting taskexecutor daemon on host xiuchengdeMacBook-Pro.local.
xiuchenggong@xiuchengdeMacBook-Pro bin % ./sql-client.sh embedded
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/Users/xiuchenggong/flink/flink-1.16.2/lib/log4j-slf4j-impl-2.17.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/Users/xiuchenggong/flink/hadoop-3.3.1/share/hadoop/common/lib/slf4j-log4j12-1.7.30.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]

                                   ?▓██▓██?
                               ▓████??█▓?▓███▓?
                            ▓███▓??        ???▓██?  ?
                          ?██?   ??▓▓█▓▓??      ?████
                          ██?         ??▓███?    ?█?█?
                            ?▓█            ███   ▓??██
                              ▓█       ?????▓██▓???▓▓█
                            █? █   ???       ███▓▓█ ?█???
                            ████?   ?▓█▓      ██??? ▓███?
                         ??█▓▓██       ▓█?    ▓█?▓██▓ ?█?
                   ▓??▓████? ██         ?█    █▓??█???█?
                  ███▓?██▓  ▓█           █   █▓ ?▓█▓▓█?
                ?██▓  ?█?            █  █? ?█████▓? ██▓??
               ███? ? █?          ▓ ?█ █████???    ?█?▓  ▓?
              ██▓█ ??▓?          ▓███████▓?       ?█? ?▓ ▓██▓
           ?██▓ ▓█ █▓█       ??█████▓▓??         ██??  █ ?  ▓█?
           ▓█▓  ▓█ ██▓ ?▓▓▓▓▓▓▓?              ?██▓           ?█?
           ▓█    █ ▓███▓??              ?▓▓▓███▓          ??? ▓█
           ██▓    ██?    ??▓▓███▓▓▓▓▓██████▓?            ▓███  █
          ▓███? ███   ?▓▓???   ?▓████▓?                  ??▓?  █▓
          █▓??▓▓██  ??????????▓██▓?                            █▓
          ██ ▓??█   ▓▓▓▓???  ?█▓       ?▓▓██▓    ▓?          ??▓
          ▓█▓ ▓?█  █▓?  ??▓▓██?            ?▓█?   ??????▓█████?
           ██? ▓█?█?  ?▓▓?  ▓█                █?      ????   ?█?
           ▓█   ?█▓   ?     █?                ?█              █▓
            █▓   ██         █?                 ▓▓        ?█▓▓▓?█?
             █▓ ?▓██?       ▓?                  ▓█▓?????▓█?    ?█
              ██   ▓█▓?      ?                    ??█?██?      ▓▓
               ▓█?   ?█▓??                         ?? █?█▓?????██
                ?██?    ?▓▓?                     ▓██▓?█? ?▓▓▓▓?█▓
                  ?▓██?                          ▓?  ?█▓█  ?????
                      ?▓▓▓▓▓?????????????????????????▓▓  ▓??█?
          
    ______ _ _       _       _____  ____  _         _____ _ _            _  BETA   
   |  ____| (_)     | |     / ____|/ __ \| |       / ____| (_)          | |  
   | |__  | |_ _ __ | | __ | (___ | |  | | |      | |    | |_  ___ _ __ | |_ 
   |  __| | | | '_ \| |/ /  \___ \| |  | | |      | |    | | |/ _ \ '_ \| __|
   | |    | | | | | |   <   ____) | |__| | |____  | |____| | |  __/ | | | |_ 
   |_|    |_|_|_| |_|_|\_\ |_____/ \___\_\______|  \_____|_|_|\___|_| |_|\__|
          
        Welcome! Enter 'HELP;' to list all available commands. 'QUIT;' to exit.

Command history file path: /Users/xiuchenggong/.flink-sql-history

Flink SQL> 

建sqlsever到flink的表:

Flink SQL> CREATE TABLE t_source_sqlserver (
>     id INT,
>     order_date DATE,
>     purchaser INT,
>     quantity INT,
>     product_id INT,
>     PRIMARY KEY (id) NOT ENFORCED -- 主鍵定義(可選)
> ) WITH (
>     'connector' = 'sqlserver-cdc',  -- 使用SQL Server CDC連接器
>     'hostname' = 'localhost',  -- SQL Server主機(jī)名
>     'port' = '30027',               -- SQL Server端口
>     'username' = 'sa',              -- SQL Server用戶名
>     'password' = 'abc@123456',      -- SQL Server密碼
>     'database-name' = 'cdc_test',   -- 數(shù)據(jù)庫(kù)名稱
>     'schema-name' = 'dbo',          -- 模式名稱
>     'table-name' = 'orders'         -- 要捕獲更改的表名
> );

?再建flink到starrocks的表:

Flink SQL> 
> 
> CREATE TABLE IF NOT EXISTS `orders_sink` (
>      id int,
>      order_date date,
>      purchaser int,
>      quantity int,
>      product_id int,
>      PRIMARY KEY(`id`) NOT ENFORCED
> ) with (
> 'load-url' = 'localhost:8030',
> 'sink.buffer-flush.interval-ms' = '15000',
> 'sink.properties.row_delimiter' = '\x02',
> 'sink.properties.column_separator' = '\x01',
> 'connector' = 'starrocks',
> 'database-name' = 'test',
> 'table-name' = 'orders',
> 'jdbc-url' = 'jdbc:mysql://localhost:9030',
> 'password' = '',
> 'username' = 'root'
> )
> ;
[INFO] Execute statement succeed.

Flink SQL> show tables;
+--------------------+
|         table name |
+--------------------+
|        orders_sink |
| t_source_sqlserver |
+--------------------+
2 rows in set

提交作業(yè):

Flink SQL> insert into orders_sink select * from t_source_sqlserver;
[INFO] Submitting SQL update statement to the cluster...
WARNING: An illegal reflective access operation has occurred
WARNING: Illegal reflective access by org.apache.flink.api.java.ClosureCleaner (file:/Users/xiuchenggong/flink/flink-1.16.2/lib/flink-dist-1.16.2.jar) to field java.lang.Class.ANNOTATION
WARNING: Please consider reporting this to the maintainers of org.apache.flink.api.java.ClosureCleaner
WARNING: Use --illegal-access=warn to enable warnings of further illegal reflective access operations
WARNING: All illegal access operations will be denied in a future release
[INFO] SQL update statement has been successfully submitted to the cluster:
Job ID: 746cc173cd71133e96d080f25327e9bc

flink webui看到長(zhǎng)期駐留的作業(yè):

使用flink sqlserver cdc 同步數(shù)據(jù)到StarRocks,sqlserver,starrocks,flink

5.驗(yàn)證在sqlserver中的數(shù)據(jù)是不是已經(jīng)同步到starrocks中了,insert/update/delete:


StarRocks > select * from orders;
+------+------------+-----------+----------+------------+
| id   | order_date | purchaser | quantity | product_id |
+------+------------+-----------+----------+------------+
|    1 | 2023-07-07 |         1 |      100 |          1 |
|    3 | 2023-07-07 |         3 |        3 |          3 |
|    4 | 2023-07-07 |         4 |        4 |          4 |
|   45 | 2023-07-07 |         5 |        5 |          5 |
|    2 | 2023-07-07 |         2 |      200 |          2 |
+------+------------+-----------+----------+------------+
5 rows in set (0.016 sec)

StarRocks >

數(shù)據(jù)的增刪改都同步過(guò)去了;文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-688958.html

到了這里,關(guān)于使用flink sqlserver cdc 同步數(shù)據(jù)到StarRocks的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Mysql+ETLCloud CDC+StarRocks實(shí)時(shí)數(shù)倉(cāng)同步實(shí)戰(zhàn)

    Mysql+ETLCloud CDC+StarRocks實(shí)時(shí)數(shù)倉(cāng)同步實(shí)戰(zhàn)

    大型企業(yè)需要對(duì)各種業(yè)務(wù)系統(tǒng)中的銷售及營(yíng)銷數(shù)據(jù)進(jìn)行實(shí)時(shí)同步分析,例如庫(kù)存信息、對(duì)帳信號(hào)、會(huì)員信息、廣告投放信息,生產(chǎn)進(jìn)度信息等等,這些統(tǒng)計(jì)分析信息可以實(shí)時(shí)同步到StarRocks中進(jìn)行分析和統(tǒng)計(jì),StarRocks作為分析型數(shù)據(jù)庫(kù)特別適合于對(duì)海量數(shù)據(jù)的存儲(chǔ)和分析,我們

    2024年02月16日
    瀏覽(22)
  • springboot集成starrocks、以及采用flink實(shí)現(xiàn)mysql與starrocks亞秒級(jí)同步

    (因采用dynamic-datasource-spring-boot-starter動(dòng)態(tài)數(shù)據(jù)源,所以才是以下配置文件的樣式,像redis,druid根據(jù)自己情況導(dǎo)入依賴) 這個(gè)配置文件的場(chǎng)景是把starrocks當(dāng)成slave庫(kù)在用。某些大數(shù)據(jù)慢查詢就走starrocks 就這樣配置好后就可把starrocks當(dāng)mysql用了 重點(diǎn):采用這種方式有限制,插入

    2024年01月21日
    瀏覽(18)
  • 用flink cdc sqlserver 將數(shù)據(jù)實(shí)時(shí)同步到clickhouse

    flink cdc 終于支持 sqlserver 了。 現(xiàn)在互聯(lián)網(wǎng)公司用sqlserver的不多,大部分都是一些國(guó)企的老舊系統(tǒng)。我們以前同步數(shù)據(jù),都是用datax,但是不能實(shí)時(shí)同步數(shù)據(jù)?,F(xiàn)在有了flinkcdc,可以實(shí)現(xiàn)實(shí)時(shí)同步了。 1、首先sqlserver版本:要求sqlserver版本為14及以上,也就是 SQL Server 2017 版。

    2023年04月08日
    瀏覽(32)
  • flink sqlserver cdc實(shí)時(shí)同步(含sqlserver安裝配置等)

    flink sqlserver cdc實(shí)時(shí)同步(含sqlserver安裝配置等)

    官方文檔:https://github.com/ververica/flink-cdc-connectors/blob/master/docs/content/connectors/sqlserver-cdc.md 如果要使用flink cdc做sqlserver的實(shí)時(shí)同步,需要滿足以下條件: 需要安裝SQLServer(需要支持CDC的功能,SQLServer 2008之后的版本都支持) ; 需要開(kāi)啟SQL Server代理; 啟用CDC功能。 ok,接下來(lái)

    2024年02月08日
    瀏覽(22)
  • Flink+StarRocks 實(shí)時(shí)數(shù)據(jù)分析新范式

    Flink+StarRocks 實(shí)時(shí)數(shù)據(jù)分析新范式

    摘要:本文整理自 StarRocks 社區(qū)技術(shù)布道師謝寅,在 Flink Forward Asia 2022 實(shí)時(shí)湖倉(cāng)的分享。本篇內(nèi)容主要分為五個(gè)部分: 極速數(shù)據(jù)分析 實(shí)時(shí)數(shù)據(jù)更新 StarRocks Connector For Apache Flink 客戶實(shí)踐案例 未來(lái)規(guī)劃 點(diǎn)擊查看原文視頻 演講PPT 統(tǒng)一 OLAP 分析的趨勢(shì),以及 StarRocks 極速查詢分析

    2024年02月13日
    瀏覽(17)
  • 第3.1章:StarRocks數(shù)據(jù)導(dǎo)入——Insert into 同步模式

    第3.1章:StarRocks數(shù)據(jù)導(dǎo)入——Insert into 同步模式

    ? ?在StarRocks中,insert的語(yǔ)法和mysql等數(shù)據(jù)庫(kù)的語(yǔ)法類似,并且每次insert into操作都是一次完整的導(dǎo)入事務(wù)。 ?主要的 insertInto 命令包含以下兩種: insert into tbl select ... insert into tbl (col1, col2, ...) values (1, 2, ...), (1,3, ...); ? 其中第二種命令僅用于demo,不要使用在測(cè)試或生產(chǎn)環(huán)境

    2024年02月21日
    瀏覽(22)
  • 通過(guò)starrocks jdbc外表查詢sqlserver

    通過(guò)starrocks jdbc外表查詢sqlserver

    1.sqlserver環(huán)境準(zhǔn)備,使用docker環(huán)境,可以參考使用flink sqlserver cdc 同步數(shù)據(jù)到StarRocks_gongxiucheng的博客-CSDN博客 部署獲得sqlserver環(huán)境; 2.獲取starrocks環(huán)境,也可以通過(guò)docker部署,參考:使用 Docker 部署 StarRocks @ deploy_with_docker @ StarRocks Docs? 3.下載microsoft sql server jdbc driver jar包:

    2024年02月10日
    瀏覽(24)
  • 快速構(gòu)建 SAP ERP 內(nèi)置數(shù)據(jù)庫(kù) HANA 到 StarRocks 的數(shù)據(jù)遷移同步任務(wù)

    SAP HANA 是由 SAP 開(kāi)發(fā)的一款內(nèi)存列式數(shù)據(jù)庫(kù), 具有預(yù)測(cè)分析、空間數(shù)據(jù)處理、文本分析、文本搜索、流分析、圖形數(shù)據(jù)處理等高級(jí)分析功能。 HANA 內(nèi)存列式數(shù)據(jù)庫(kù)特性,即啟動(dòng)后可以把所有數(shù)據(jù)載入內(nèi)存,相比傳統(tǒng)基于硬盤的數(shù)據(jù)庫(kù),性能提升10~10,000倍。 HANA 一般內(nèi)置在 SAP

    2024年02月08日
    瀏覽(21)
  • 一文教會(huì)你用Apache SeaTunnel Zeta離線把數(shù)據(jù)從MySQL同步到StarRocks

    一文教會(huì)你用Apache SeaTunnel Zeta離線把數(shù)據(jù)從MySQL同步到StarRocks

    在上一篇文章中,我們介紹了如何下載安裝部署SeaTunnel Zeta服務(wù)(3分鐘部署SeaTunnel Zeta單節(jié)點(diǎn)Standalone模式環(huán)境),接下來(lái)我們介紹一下SeaTunnel支持的第一個(gè)同步場(chǎng)景:離線批量同步。顧名思意,離線批量同步需要用戶定義好SeaTunnel JobConfig,選擇批處理模式,作業(yè)啟動(dòng)后開(kāi)始同

    2024年02月06日
    瀏覽(20)
  • 使用Flink CDC將Mysql中的數(shù)據(jù)實(shí)時(shí)同步到ES

    最近公司要搞搜索,需要把mysql中的數(shù)據(jù)同步到es中來(lái)進(jìn)行搜索,由于公司已經(jīng)搭建了flink集群,就打算用flink來(lái)做這個(gè)同步。本來(lái)以為很簡(jiǎn)單,跟著官網(wǎng)文檔走就好了,結(jié)果沒(méi)想到折騰了將近一周的時(shí)間…… 我也是沒(méi)想到,這玩意網(wǎng)上資源竟然這么少,找到的全部都是通過(guò)

    2024年02月11日
    瀏覽(25)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包