国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Apache Doris 系列: 基礎(chǔ)篇-Flink SQL寫(xiě)入Doris

這篇具有很好參考價(jià)值的文章主要介紹了Apache Doris 系列: 基礎(chǔ)篇-Flink SQL寫(xiě)入Doris。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

簡(jiǎn)介

本文介紹 Flink SQL如何流式寫(xiě)入 Apache Doris,分為一下幾個(gè)部分:

  • Flink Doris connector
  • Doris FE 節(jié)點(diǎn)配置
  • Flink SQL 寫(xiě) Doris

Flink Doris connector

Flink Doris connector 本質(zhì)是通過(guò)Stream Load來(lái)時(shí)實(shí)現(xiàn)數(shù)據(jù)的查詢和寫(xiě)入功能。
支持二階段提交,可實(shí)現(xiàn)Exatly Once的寫(xiě)入。

Doris FE 節(jié)點(diǎn)配置

1)需在 apache-doris/fe/fe.conf 配置文件添加如下配置:

enable_http_server_v2 = true
  1. 重啟 FE 節(jié)點(diǎn)
apache-doris/fe/bin/stop_fe.sh
apache-doris/fe/bin/start_fe.sh --daemon

Doris BE 節(jié)點(diǎn)配置

1)需在 apache-doris/be/be.conf 配置文件添加如下配置:

enable_stream_load_record = true
  1. 重啟 BE 節(jié)點(diǎn)
apache-doris/be/bin/stop_be.sh
apache-doris/be/bin/start_be.sh --daemon

Doris 建表語(yǔ)句

CREATE TABLE order_info (
  order_date date NOT NULL COMMENT '下單日期',
  order_id int(11) NOT NULL COMMENT '訂單id',
  buy_num tinyint(4) NULL COMMENT '購(gòu)買件數(shù)',
  user_id int(11) NULL COMMENT '[-9223372036854775808, 9223372036854775807]',
  create_time datetime NULL COMMENT '創(chuàng)建時(shí)間',
  update_time datetime NULL COMMENT '更新時(shí)間'
) ENGINE=OLAP
DUPLICATE KEY(order_date, order_id)
COMMENT 'OLAP'
DISTRIBUTED BY HASH(order_id) BUCKETS 2
PROPERTIES (
"replication_allocation" = "tag.location.default: 1"
);

本例使用的明細(xì)模型,僅insert操作,如需update/delete,則需選擇Unique模型

生成測(cè)試數(shù)據(jù)

通過(guò)Flink SQL自帶的datagen生成測(cè)試數(shù)據(jù):

CREATE TABLE order_info_source (
    order_date DATE,
    order_id     INT,
    buy_num      INT,
    user_id      INT,
    create_time  TIMESTAMP(3),
    update_time   TIMESTAMP(3)
) WITH (
  'connector' = 'datagen',
  'rows-per-second' =  '10',
  'fields.order_id.min' = '30001',
  'fields.order_id.max' = '30500',
  'fields.user_id.min' = '10001',
  'fields.user_id.max' = '20001',
  'fields.buy_num.min' = '10',
  'fields.buy_num.max' = '20',
  'number-of-rows' = '100'
)

datagen參數(shù):
'rows-per-second' = '10' : 每秒發(fā)送10條數(shù)據(jù)
'fields.order_id.min' = '30001': order_id最小值為30001
'fields.order_id.max' = '30500': order_id最大值為30500
'fields.user_id.min' = '10001': user_id最小值為10001
'fields.user_id.max' = '20001': user_id最大值為20001
'fields.buy_num.min' = '10': buy_num最小值為10
'fields.buy_num.max' = '20': buy_num最大值為20
'number-of-rows' = '100': 共發(fā)送100條數(shù)據(jù), 不設(shè)置的話會(huì)無(wú)限量發(fā)送數(shù)據(jù)

更多細(xì)節(jié),請(qǐng)前往官網(wǎng)DataGen SQL Connector

注冊(cè)Doris Sink表

CREATE TABLE order_info_sink (  
order_date DATE,  
order_id INT,  
buy_num INT,
user_id INT,
create_time TIMESTAMP(3),
update_time TIMESTAMP(3)
)  
WITH (
'connector' = 'doris',   
'fenodes' = '192.168.56.104:8030',   
'table.identifier' = 'test.order_info_example',   
'username' = 'test',   
'password' = 'password123',   
'sink.label-prefix' = 'sink_doris_label_8'
)

寫(xiě)入Doris Sink表

insert into order_info_sink select * from order_info_source

通過(guò)Mysql客戶端查看Doris表的數(shù)據(jù)

mysql> select * from  test.order_info_example limit 10;
+------------+----------+---------+---------+---------------------+---------------------+
| order_date | order_id | buy_num | user_id | create_time         | update_time         |
+------------+----------+---------+---------+---------------------+---------------------+
| 2022-09-22 |    30007 |      10 |   10560 | 2022-09-22 07:42:21 | 2022-09-22 07:42:21 |
| 2022-09-22 |    30125 |      16 |   17591 | 2022-09-22 07:42:26 | 2022-09-22 07:42:26 |
| 2022-09-22 |    30176 |      17 |   10871 | 2022-09-22 07:42:24 | 2022-09-22 07:42:24 |
| 2022-09-22 |    30479 |      16 |   19847 | 2022-09-22 07:42:25 | 2022-09-22 07:42:25 |
| 2022-09-22 |    30128 |      16 |   19807 | 2022-09-22 07:42:24 | 2022-09-22 07:42:24 |
| 2022-09-22 |    30039 |      13 |   18237 | 2022-09-22 07:42:28 | 2022-09-22 07:42:28 |
| 2022-09-22 |    30060 |      10 |   18309 | 2022-09-22 07:42:24 | 2022-09-22 07:42:24 |
| 2022-09-22 |    30246 |      18 |   10855 | 2022-09-22 07:42:24 | 2022-09-22 07:42:24 |
| 2022-09-22 |    30288 |      19 |   12347 | 2022-09-22 07:42:26 | 2022-09-22 07:42:26 |
| 2022-09-22 |    30449 |      17 |   11488 | 2022-09-22 07:42:23 | 2022-09-22 07:42:23 |
+------------+----------+---------+---------+---------------------+---------------------+
10 rows in set (0.05 sec)

完整代碼

src/main/java/FlinkSQLSinkExample.java文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-403945.html

到了這里,關(guān)于Apache Doris 系列: 基礎(chǔ)篇-Flink SQL寫(xiě)入Doris的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Flink系列之:Apache Kafka SQL 連接器

    Scan Source: Unbounded Sink: Streaming Append Mode Kafka 連接器提供從 Kafka topic 中消費(fèi)和寫(xiě)入數(shù)據(jù)的能力。 以下示例展示了如何創(chuàng)建 Kafka 表: 以下的連接器元數(shù)據(jù)可以在表定義中通過(guò)元數(shù)據(jù)列的形式獲取。 R/W 列定義了一個(gè)元數(shù)據(jù)是可讀的(R)還是可寫(xiě)的(W)。 只讀列必須聲明為 VI

    2024年02月01日
    瀏覽(29)
  • Apache Doris (六十四): Flink Doris Connector - (1)-源碼編譯

    Apache Doris (六十四): Flink Doris Connector - (1)-源碼編譯

    ????個(gè)人主頁(yè):IT貧道-CSDN博客 ???? 私聊博主:私聊博主加WX好友,獲取更多資料哦~ ??? 博主個(gè)人B棧地址:豹哥教你學(xué)編程的個(gè)人空間-豹哥教你學(xué)編程個(gè)人主頁(yè)-嗶哩嗶哩視頻 目錄 1.?Flink與Doris版本兼容

    2024年01月18日
    瀏覽(25)
  • 如何基于 Apache Doris 與 Apache Flink 快速構(gòu)建極速易用的實(shí)時(shí)數(shù)倉(cāng)

    如何基于 Apache Doris 與 Apache Flink 快速構(gòu)建極速易用的實(shí)時(shí)數(shù)倉(cāng)

    隨著大數(shù)據(jù)應(yīng)用的不斷深入,企業(yè)不再滿足離線數(shù)據(jù)加工計(jì)算的時(shí)效,實(shí)時(shí)數(shù)據(jù)需求已成為數(shù)據(jù)應(yīng)用新常態(tài)。伴隨著實(shí)時(shí)分析需求的不斷膨脹,傳統(tǒng)的數(shù)據(jù)架構(gòu)面臨的成本高、實(shí)時(shí)性無(wú)法保證、組件繁冗、運(yùn)維難度高等問(wèn)題日益凸顯。為了適應(yīng)業(yè)務(wù)快速迭代的特點(diǎn),幫助企業(yè)

    2024年02月12日
    瀏覽(20)
  • Apache Flink X Apache Doris構(gòu)建極速易用的實(shí)時(shí)數(shù)倉(cāng)架構(gòu)

    Apache Flink X Apache Doris構(gòu)建極速易用的實(shí)時(shí)數(shù)倉(cāng)架構(gòu)

    大家好,我叫王磊。是SelectDB 大數(shù)據(jù)研發(fā)。今天給大家?guī)?lái)的分享是《Apache Flink X Apache Doris構(gòu)建極速易用的實(shí)時(shí)數(shù)倉(cāng)架構(gòu)》。 下面是我們的個(gè)人介紹:我是Apache Doris Contributor 和阿里云 MVP。同時(shí)著有《 圖解 Spark 大數(shù)據(jù)快速分析實(shí)戰(zhàn)》等書(shū)籍。 接下來(lái)咱們進(jìn)入本次演講的正題

    2023年04月24日
    瀏覽(24)
  • 怎么使用 Flink 向 Apache Doris 表中寫(xiě) Bitmap 類型的數(shù)據(jù)

    Bitmap是一種經(jīng)典的數(shù)據(jù)結(jié)構(gòu),用于高效地對(duì)大量的二進(jìn)制數(shù)據(jù)進(jìn)行壓縮存儲(chǔ)和快速查詢。Doris支持bitmap數(shù)據(jù)類型,在Flink計(jì)算場(chǎng)景中,可以結(jié)合Flink doris Connector對(duì)bitmap數(shù)據(jù)做計(jì)算。 社區(qū)里很多小伙伴在是Doris Flink Connector的時(shí)候,不知道怎么寫(xiě)B(tài)itmap類型的數(shù)據(jù),本文將介紹如何

    2024年02月07日
    瀏覽(18)
  • 使用 Flink CDC 實(shí)現(xiàn) MySQL 數(shù)據(jù),表結(jié)構(gòu)實(shí)時(shí)入 Apache Doris

    現(xiàn)有數(shù)據(jù)庫(kù):mysql 數(shù)據(jù):庫(kù)表較多,每個(gè)企業(yè)用戶一個(gè)分庫(kù),每個(gè)企業(yè)下的表均不同,無(wú)法做到聚合,且表可以被用戶隨意改動(dòng),增刪改列等,增加表 分析:用戶自定義分析,通過(guò)拖拽定義圖卡,要求實(shí)時(shí),點(diǎn)擊確認(rèn)即出現(xiàn)相應(yīng)結(jié)果,其中有無(wú)法預(yù)判的過(guò)濾 問(wèn)題:隨業(yè)務(wù)增長(zhǎng)

    2023年04月08日
    瀏覽(24)
  • 【Apache-Flink零基礎(chǔ)入門】「入門到精通系列」手把手+零基礎(chǔ)帶你玩轉(zhuǎn)大數(shù)據(jù)流式處理引擎Flink(基礎(chǔ)概念解析+有狀態(tài)的流式處理)

    【Apache-Flink零基礎(chǔ)入門】「入門到精通系列」手把手+零基礎(chǔ)帶你玩轉(zhuǎn)大數(shù)據(jù)流式處理引擎Flink(基礎(chǔ)概念解析+有狀態(tài)的流式處理)

    Apache Flink 是業(yè)界公認(rèn)的最佳流計(jì)算引擎之一,它不僅僅局限于流處理,而是一套兼具流、批、機(jī)器學(xué)習(xí)等多種計(jì)算功能的大數(shù)據(jù)引擎。Flink 的用戶只需根據(jù)業(yè)務(wù)邏輯開(kāi)發(fā)一套代碼,就能夠處理全量數(shù)據(jù)、增量數(shù)據(jù)和實(shí)時(shí)數(shù)據(jù),無(wú)需針對(duì)不同的數(shù)據(jù)類型開(kāi)發(fā)不同的方案。這使得

    2024年02月03日
    瀏覽(99)
  • Apache Doris 系列: 入門篇-數(shù)據(jù)導(dǎo)入及查詢

    Apache Doris 系列: 入門篇-數(shù)據(jù)導(dǎo)入及查詢

    本文檔主要介紹 Doris 的數(shù)據(jù)導(dǎo)入及數(shù)據(jù)查詢。 Doris 為了滿足不同業(yè)務(wù)場(chǎng)景的數(shù)據(jù)接入需求,提供不豐富的數(shù)據(jù)導(dǎo)入方式,去支持不同的數(shù)據(jù)源:外部存儲(chǔ)(HDFS,對(duì)象存儲(chǔ))、本地文件、消息隊(duì)列(Kafka)及其他外部業(yè)務(wù)系統(tǒng)數(shù)據(jù)庫(kù)(MySQL、Oracle、SQLServer、PostgreSQL等),支持

    2023年04月09日
    瀏覽(34)
  • Apache Doris 系列:Bucket(分桶)數(shù)量設(shè)置建議

    問(wèn)題描述: 上線運(yùn)行一段時(shí)間后,隨著越來(lái)越多的數(shù)據(jù)增長(zhǎng),集群每次重啟后一周左右,讀寫(xiě)就會(huì)開(kāi)始變得越來(lái)越慢,直到無(wú)法正常進(jìn)行讀寫(xiě)。 問(wèn)題處理: 對(duì)數(shù)倉(cāng)表的 Schema 的分析,發(fā)現(xiàn)有些表數(shù)據(jù)并不大,但是 Bucket 卻設(shè)置的非常大 通過(guò) show data from table 命令列出所有表Bu

    2024年02月16日
    瀏覽(21)
  • 【Apache-Flink零基礎(chǔ)入門】「入門到精通系列」手把手+零基礎(chǔ)帶你玩轉(zhuǎn)大數(shù)據(jù)流式處理引擎Flink(特點(diǎn)和優(yōu)勢(shì)分析+事件與時(shí)間維度分析)

    【Apache-Flink零基礎(chǔ)入門】「入門到精通系列」手把手+零基礎(chǔ)帶你玩轉(zhuǎn)大數(shù)據(jù)流式處理引擎Flink(特點(diǎn)和優(yōu)勢(shì)分析+事件與時(shí)間維度分析)

    本文介紹了Apache Flink的定義、架構(gòu)、基本原理,并辨析了大數(shù)據(jù)流計(jì)算相關(guān)的基本概念。同時(shí)回顧了大數(shù)據(jù)處理方式的歷史演進(jìn)以及有狀態(tài)的流式數(shù)據(jù)處理的原理。最后,分析了Apache Flink作為業(yè)界公認(rèn)為最好的流計(jì)算引擎之一所具備的天然優(yōu)勢(shì),旨在幫助讀者更好地理解大數(shù)

    2024年02月03日
    瀏覽(102)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包