国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Doris系列之導(dǎo)入Kafka數(shù)據(jù)操作

這篇具有很好參考價值的文章主要介紹了Doris系列之導(dǎo)入Kafka數(shù)據(jù)操作。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Doris系列

注:大家覺得博客好的話,別忘了點贊收藏呀,本人每周都會更新關(guān)于人工智能和大數(shù)據(jù)相關(guān)的內(nèi)容,內(nèi)容多為原創(chuàng),Python Java Scala SQL 代碼,CV NLP 推薦系統(tǒng)等,Spark Flink Kafka Hbase Hive Flume等等~寫的都是純干貨,各種頂會的論文解讀,一起進(jìn)步。
今天和大家分享一下Doris系列之導(dǎo)入Kafka數(shù)據(jù)操作
#博學(xué)谷IT學(xué)習(xí)技術(shù)支持#



前言

Doris系列之導(dǎo)入Kafka數(shù)據(jù)操作

接著上次的Doris系列繼續(xù)和大家分享,上次講了Doris 建表操作,和從Broker Load導(dǎo)入hdfs數(shù)據(jù)操作,今天和大家分享從Routine Load導(dǎo)入kafka數(shù)據(jù)操作。
Doris系列之導(dǎo)入Kafka數(shù)據(jù)操作
如上圖,Client 向 FE 提交一個例行導(dǎo)入作業(yè)。
FE 通過 JobScheduler 將一個導(dǎo)入作業(yè)拆分成若干個 Task。每個 Task 負(fù)責(zé)導(dǎo)入指定的一部分?jǐn)?shù)據(jù)。Task 被 TaskScheduler 分配到指定的 BE 上執(zhí)行。
在 BE 上,一個 Task 被視為一個普通的導(dǎo)入任務(wù),通過 Stream Load 的導(dǎo)入機制進(jìn)行導(dǎo)入。導(dǎo)入完成后,向 FE 匯報。
FE 中的 JobScheduler 根據(jù)匯報結(jié)果,繼續(xù)生成后續(xù)新的 Task,或者對失敗的 Task 進(jìn)行重試。
整個例行導(dǎo)入作業(yè)通過不斷的產(chǎn)生新的 Task,來完成數(shù)據(jù)不間斷的導(dǎo)入。


一、Kafka集群使用步驟

Doris系列之導(dǎo)入Kafka數(shù)據(jù)操作
Kafka也是Doris一個非常重要的數(shù)據(jù)來源。

1.啟動kafka集群環(huán)境

這里根據(jù)自己的路徑啟動kafka集群環(huán)境

cd /export/servers/kafka_2.12-2.4.1
nohup bin/kafka-server-start.sh config/server.properties 2>&1 &

2.創(chuàng)建kafka的topic主題

這里創(chuàng)建一個topic名字是test的kafka消息隊列,設(shè)置1個partitions ,并且只備份1份數(shù)據(jù)。

bin/kafka-topics.sh --create --zookeeper node01:2181,node02:2181,node03:2181 --replication-factor 1 \
--partitions 1 \
--topic test

如果Topic已經(jīng)存在,則可以刪除

bin/kafka-topics.sh  --delete --zookeeper node01:2181  --topic test 

3.往kafka中插入一批測試數(shù)據(jù)

這里簡單做個小案例,插入2條數(shù)據(jù)。

bin/kafka-console-producer.sh --broker-list node01:9092,node02:9092,node03:9092 --topic test
{"id":1,"name":"zhangsan","age":20}
{"id":2,"name":"lisi","age":30}

二、Doris使用步驟

1.創(chuàng)建對應(yīng)表

這里根據(jù)自己kafka生成的數(shù)據(jù)創(chuàng)建對應(yīng)字段和格式的表格

create table student_kafka2
(
id int,
name varchar(50),
age int
)
DUPLICATE KEY(id)
DISTRIBUTED BY HASH(id) BUCKETS 10;

2.創(chuàng)建導(dǎo)入作業(yè)

  • student_kafka2為第一步創(chuàng)建的表格名稱
  • desired_concurrent_number是并行度相關(guān)的參數(shù)
  • strict_mode是否采用嚴(yán)格模式
  • format為導(dǎo)入的格式,這里是json
CREATE ROUTINE LOAD test_db.kafka_job_new on student_kafka2
PROPERTIES
(
    "desired_concurrent_number"="1",
	"strict_mode"="false",
    "format" = "json"
)
FROM KAFKA
(
    "kafka_broker_list"= "node01:9092,node02:9092,node03:9092",
    "kafka_topic" = "test",
    "property.group.id" = "test_group_1",
    "property.kafka_default_offsets" = "OFFSET_BEGINNING",
    "property.enable.auto.commit" = "false"
);
select * from student_kafka2;

Doris系列之導(dǎo)入Kafka數(shù)據(jù)操作

三、Doris常用的參數(shù)

設(shè)置刪除時是否允許不分區(qū)直接刪除

  • SET delete_without_partition = true;

設(shè)置最大內(nèi)存限制

  • SET exec_mem_limit = 8589934592;
  • SHOW VARIABLES LIKE “%mem_limit%”;

設(shè)置最長查詢時間限制

  • SET query_timeout = 600;
  • SHOW VARIABLES LIKE “%query_timeout%”;

添加新的含預(yù)聚合的列

  • ALTER TABLE table1 ADD COLUMN uv BIGINT SUM DEFAULT ‘0’ after pv;

Broadcast/Shuffle Join 操作,默認(rèn)為Broadcast

  • select sum(table1.pv) from table1 join [broadcast] table2 where
    table1.siteid = 12;
  • select sum(table1.pv) from table1 join [shuffle] table2 where
    table1.siteid = 12;

總結(jié)

今天主要和大家分享了Doris系列之導(dǎo)入Kafka數(shù)據(jù)操作,如果大家實際工作中需要用到Kafka結(jié)合Doris操作,可以參考一下使用步驟。文章來源地址http://www.zghlxwxcb.cn/news/detail-475446.html

到了這里,關(guān)于Doris系列之導(dǎo)入Kafka數(shù)據(jù)操作的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Apache Doris (三十三):Doris 數(shù)據(jù)導(dǎo)入(十一)Routine Load 2- 導(dǎo)入案例及注意事項

    目錄 1. 導(dǎo)入Kafka數(shù)據(jù)到Doris 2.?嚴(yán)格模式導(dǎo)入Kafka數(shù)據(jù)到Doris 3.?kafka 簡單json格式數(shù)據(jù)導(dǎo)入到Doris

    2024年02月16日
    瀏覽(16)
  • Apache Doris (二十三) :Doris 數(shù)據(jù)導(dǎo)入(一)Insert Into

    目錄 1.?語法及參數(shù) 2.?案例 ????3.?注意事項 3.1. 關(guān)于插入數(shù)據(jù)量

    2024年02月13日
    瀏覽(27)
  • Doris系列之建表操作

    Doris系列之建表操作

    注:大家覺得博客好的話,別忘了點贊收藏呀,本人每周都會更新關(guān)于人工智能和大數(shù)據(jù)相關(guān)的內(nèi)容,內(nèi)容多為原創(chuàng),Python Java Scala SQL 代碼,CV NLP 推薦系統(tǒng)等,Spark Flink Kafka Hbase Hive Flume等等~寫的都是純干貨,各種頂會的論文解讀,一起進(jìn)步。 今天和大家分享一下Doris系列之

    2023年04月09日
    瀏覽(27)
  • Apache Doris (二十八):Doris 數(shù)據(jù)導(dǎo)入(六)Spark Load 1- 原理及配置

    目錄 1.?基本原理 ?2. Spark集群搭建 2.1?Spark Standalone 集群搭建 2.2?Spark On Yarn 配置

    2024年02月16日
    瀏覽(22)
  • Doris(6):數(shù)據(jù)導(dǎo)入(Load)之Stream Load

    Doris(6):數(shù)據(jù)導(dǎo)入(Load)之Stream Load

    Broker load是一個同步的導(dǎo)入方式,用戶通過發(fā)送HTTP協(xié)議將本地文件或者數(shù)據(jù)流導(dǎo)入到Doris中,Stream Load同步執(zhí)行導(dǎo)入并返回結(jié)果,用戶可以通過返回判斷導(dǎo)入是否成功。 1 適用場景 Stream load 主要適用于導(dǎo)入本地文件,或通過程序?qū)霐?shù)據(jù)流中的數(shù)據(jù)。 2 基本原理 下圖展示了

    2023年04月19日
    瀏覽(43)
  • Doris(7):數(shù)據(jù)導(dǎo)入(Load)之Routine Load

    Doris(7):數(shù)據(jù)導(dǎo)入(Load)之Routine Load

    例行導(dǎo)入功能為用戶提供了義中自動從指定數(shù)據(jù)源進(jìn)行數(shù)據(jù)導(dǎo)入的功能 1 適用場景 當(dāng)前僅支持kafka系統(tǒng)進(jìn)行例行導(dǎo)入。 2 使用限制 支持無認(rèn)證的 Kafka 訪問,以及通過 SSL 方式認(rèn)證的 Kafka 集群。 支持的消息格式為 csv 文本格式。每一個 message 為一行,且行尾不包含換行符。 僅

    2023年04月24日
    瀏覽(22)
  • Doris1.1.1多種異構(gòu)數(shù)據(jù)源數(shù)據(jù)導(dǎo)入方案

    Doris1.1.1多種異構(gòu)數(shù)據(jù)源數(shù)據(jù)導(dǎo)入方案

    ????????Apache Doris 是一個基于 MPP 架構(gòu)的高性能、實時的分析型數(shù)據(jù)庫,以極速易用的特點被人們所熟知,僅需亞秒級響應(yīng)時間即可返回海量數(shù)據(jù)下的查詢結(jié)果,不僅可以支持高并發(fā)的點查詢場景,也能支持高吞吐的復(fù)雜分析場景?;诖耍珹pache Doris 能夠較好的滿足報表

    2024年02月03日
    瀏覽(18)
  • Apache Doris 數(shù)據(jù)導(dǎo)入:Insert Into語句;Binlog Load;Broker Load;HDFS Load;Spark Load;例行導(dǎo)入(Routine Load)

    Apache Doris 數(shù)據(jù)導(dǎo)入:Insert Into語句;Binlog Load;Broker Load;HDFS Load;Spark Load;例行導(dǎo)入(Routine Load)

    Doris 提供多種數(shù)據(jù)導(dǎo)入方案,可以針對不同的數(shù)據(jù)源進(jìn)行選擇不同的數(shù)據(jù)導(dǎo)入方式。Doris支持各種各樣的數(shù)據(jù)導(dǎo)入方式:Insert Into、json格式數(shù)據(jù)導(dǎo)入、Binlog Load、Broker Load、Routine Load、Spark Load、Stream Load、S3 Load,下面分別進(jìn)行介紹。 注意: Doris 中的所有導(dǎo)入操作都有原子性保

    2024年02月21日
    瀏覽(19)
  • Doris的數(shù)據(jù)模型和增刪改查操作

    Doris的數(shù)據(jù)模型和增刪改查操作

    了解Doris的朋友都知道,Doris是一個MPP的分析型數(shù)據(jù)庫??梢灾С执髷?shù)據(jù)下的實時分析。 說到數(shù)據(jù)分析,不得不提的是Doris的數(shù)據(jù)模型。 目前Doris支持三種數(shù)據(jù)模型,分別是: Aggregate Model(聚合模型) Uniq Model(唯一模型) Duplicate Model(冗余模型) Aggregate Model(聚合模型)

    2024年02月04日
    瀏覽(17)
  • spark導(dǎo)入doris的幾種方式

    spark導(dǎo)入doris的幾種方式

    本文主要介紹通過spark導(dǎo)入doris的3種方式。 jdbc 方式需要引入mysql-connector-java的依賴 代碼demo 注意: 一定要添加?rewriteBatchedStatements=true參數(shù),不然導(dǎo)入速度會很慢。 Spark Doris Connector 可以支持通過 Spark 讀取 Doris 中存儲的數(shù)據(jù),也支持通過Spark寫入數(shù)據(jù)到Doris。 代碼庫地址:h

    2024年02月11日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包