国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Iceberg從入門到精通系列之十:flink sql往Iceberg表插入數(shù)據(jù),Batch模式和Streaming模式查詢數(shù)據(jù)

這篇具有很好參考價(jià)值的文章主要介紹了Iceberg從入門到精通系列之十:flink sql往Iceberg表插入數(shù)據(jù),Batch模式和Streaming模式查詢數(shù)據(jù)。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、INSERT INTO

CREATE TABLE `stu` (id int,name string, age int)
PARTITIONED BY (age)

insert into stu values(3,'殺sheng',16),(4,'鳴人',19)

二、INSERT OVERWRITE

僅支持Flink的Batch模式

SET execution.runtime-mode = batch;

INSERT OVERWRITE sample VALUES (1,'a');

INSERT OVERWRITE `hive_catalog`.`default`.`sample` PARTITION(data='a') SELECT 6;

三、UPSERT

當(dāng)將數(shù)據(jù)寫入v2表格時(shí),Iceberg支持基于主鍵的UPSERT。有兩種方法可以啟用upsert。

建表時(shí)指定

CREATE TABLE `hive_catalog`.`test`.`sample5`(
`id` INT UNIQUE COMMENT 'unique id',
`data` STRING NOT NULL,
PRIMARY KEY(`id`) NOT ENFORCED
) with (
'format-version'='2',
'write.upsert.enabled'='true'
);

UPSERT模式下,如果對表進(jìn)行分區(qū),則分區(qū)字段必須是主鍵。

insert into sample5 values(1,'a');
insert into sample5 values(2,'b');
SET sql-client.execution.result-mode=tableau;
select * from sample5;
insert into sample5 values(2,'c');

四、查詢Batch模式

Batch模式:

SET execution.runtime-mode = batch;
select * from sample;

五、查詢Streaming模式

Streaming模式:

SET execution.runtime-mode = streaming;
SET table.dynamic-table-options.enabled=true;
SET sql-client.execution.result-mode=tableau;

從當(dāng)前快照讀取所有記錄,然后從該快照讀取增量數(shù)據(jù)

SELECT * FROM sample /*+ OPTIONS('streaming'='true','monitor-interval'='1s')*/;

讀取指定快照id(不包含)后的增量數(shù)據(jù)

SELECT * FROM sample /*+ OPTIONS('streaming'='true','monitor-interval'='1s','start-snapshot-id'='384023852058202')*/;

六、讀取Kafka流插入到iceberg表中

下載flink-connector-kafka:

https://mvnrepository.com/artifact/org.apache.flink/flink-connector-kafka/1.17.1

創(chuàng)建iceberg表:

CREATE TABLE `hive_catalog`.`test`.`sample5`(
`id` INT UNIQUE COMMENT 'unique id',
`data` STRING NOT NULL,
PRIMARY KEY(`id`) NOT ENFORCED
)

創(chuàng)建kafka topic對應(yīng)的表:

create table default_catalog.default_database.kafka(
id int,
data string
) with(
'connector' = 'kafka',
'topic' = 'testKafkaTopic',
'properties.zookeeper.connect'='hadoop1:2101',
'properties.bootstrap.servers' = 'hadoop1:9092',
'format' = 'json',
'properties.group.id'='iceberg',
'scan.startup.mode'='earliest-offset'
);

流式讀?。?/p>

SET sql-client.execution.result-mode=tableau;
SET execution.runtime-mode = streaming;

插入數(shù)據(jù)

insert into hive_catalog.test1.sample5 select * from default_catalog.default_database.kafka;

查詢數(shù)據(jù)

SELECT * FROM sample5 /*+ OPTIONS('streaming'='true','monitor-interval'='1s')*/;

topic有最新數(shù)據(jù)時(shí)候,就能源源不斷查詢到最新數(shù)據(jù)。文章來源地址http://www.zghlxwxcb.cn/news/detail-519844.html

到了這里,關(guān)于Iceberg從入門到精通系列之十:flink sql往Iceberg表插入數(shù)據(jù),Batch模式和Streaming模式查詢數(shù)據(jù)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Iceberg從入門到精通系列之七:Flink SQL創(chuàng)建Catalog

    type:必須是iceberg catalog-type:內(nèi)置了hive和hadoop兩種catalog,也可以使用catalog-impl來自定義catalog。 catalog-impl:自定義catalog實(shí)現(xiàn)的全限定類名。如果未設(shè)置catalog-type,則必須設(shè)置。 property-version:描述屬性版本的版本號。此屬性可用于向后兼容,以防屬性格式更改。當(dāng)前屬性版本

    2024年02月11日
    瀏覽(24)
  • Iceberg從入門到精通系列之三:創(chuàng)建Iceberg表、修改表結(jié)構(gòu)、插入數(shù)據(jù)、刪除表

    Hive語法創(chuàng)建分區(qū)表,不會在元數(shù)據(jù)創(chuàng)建分區(qū),而是將分區(qū)數(shù)據(jù)轉(zhuǎn)換為Iceberg標(biāo)識分區(qū)。 這種情況下不能使用Iceberg的分區(qū)轉(zhuǎn)換,例如:days(timestamp),如果想要使用Iceberg格式表的分區(qū)轉(zhuǎn)換標(biāo)識分區(qū),需要使用Spark或者Flink引擎創(chuàng)建表。 只支持HiveCatalog表修改表屬性,Iceberg表屬性和

    2024年02月11日
    瀏覽(111)
  • Iceberg從入門到精通系列之五:Zeppelin集成iceberg,創(chuàng)建iceberg普通表和分區(qū)表,并插入數(shù)據(jù)

    Zeppelin支持Flink SQL Flink SQL支持iceberg Zeppelin集成Flink SQL后,就可以在Zeppelin上創(chuàng)建iceberg表了 下面演示下Zeppelin集成iceberg后,創(chuàng)建表,插入數(shù)據(jù)的方便性。

    2024年02月11日
    瀏覽(64)
  • Iceberg從入門到精通系列之六:Flink集成Iceberg

    下載Flink: https://www.apache.org/dyn/closer.lua/flink/flink-1.17.1/flink-1.17.1-bin-scala_2.12.tgz 下載Iceberg flink jar包:iceberg-flink-runtime-1.17-1.3.0.jar https://iceberg.apache.org/releases/ 修改配置文件flink-conf.yaml local模式 修改workers 至此FLink成功集成Iceberg

    2024年02月16日
    瀏覽(25)
  • Oracle數(shù)據(jù)庫從入門到精通系列之十八:Oracle進(jìn)程

    Oracle中的每個(gè)進(jìn)程都要執(zhí)行一個(gè)特定的任務(wù)(或一組任務(wù)),每個(gè)進(jìn)程都會為自己分配內(nèi)存(PGA)來完成它的任務(wù)。 一個(gè)Oracle實(shí)例主要有以下3類進(jìn)程: 服務(wù)器進(jìn)程(server process)。 后臺進(jìn)程(background process)。 從屬進(jìn)程(slave process)。 這些進(jìn)程根據(jù)客戶端的請求來完成工作。 專用服務(wù)

    2024年02月09日
    瀏覽(56)
  • Iceberg從入門到精通系列之二:Iceberg集成Hive

    理解Iceberg核心概念可以閱讀博主下面這篇技術(shù)博客: Iceberg從入門到精通系列之一:Iceberg核心概念理解 拷貝Iceberg的jar包到Hive的auxlib目錄中 啟動hdfs 啟動yarn 啟動historyserver Hive的元數(shù)據(jù)服務(wù)是一種存儲和管理Hive表格和數(shù)據(jù)定義的中央服務(wù),它允許用戶定義表格、分區(qū)和桶等元

    2024年02月12日
    瀏覽(25)
  • Iceberg從入門到精通系列之二十二:Spark DDL

    要在 Spark 中使用 Iceberg,請首先配置 Spark 目錄。 Iceberg 使用 Apache Spark 的 DataSourceV2 API 來實(shí)現(xiàn)數(shù)據(jù)源和目錄。 Spark 3 可以使用 USINGiceberg 子句在任何 Iceberg 目錄中創(chuàng)建表: Iceberg會將Spark中的列類型轉(zhuǎn)換為對應(yīng)的Iceberg類型。詳細(xì)信息請查看創(chuàng)建表的類型兼容性部分。 PARTITIONE

    2024年02月19日
    瀏覽(21)
  • Kubernetes(K8s)從入門到精通系列之十四:安裝工具

    Kubernetes 命令行工具 kubectl, 讓你可以對 Kubernetes 集群運(yùn)行命令。 你可以使用 kubectl 來部署應(yīng)用、監(jiān)測和管理集群資源以及查看日志。 kind 讓你能夠在本地計(jì)算機(jī)上運(yùn)行 Kubernetes。 使用這個(gè)工具需要你安裝 Docker 或者 Podman。 與 kind 類似,minikube 是一個(gè)工具, 能讓你在本地運(yùn)

    2024年02月14日
    瀏覽(47)
  • Kubernetes(K8s)從入門到精通系列之十一:安裝kubeadm

    一臺兼容的 Linux 主機(jī)。Kubernetes 項(xiàng)目為基于 Debian 和 Red Hat 的 Linux 發(fā)行版以及一些不提供包管理器的發(fā)行版提供通用的指令。 每臺機(jī)器 2 GB 或更多的 RAM(如果少于這個(gè)數(shù)字將會影響你應(yīng)用的運(yùn)行內(nèi)存)。 CPU 2 核心及以上。 集群中的所有機(jī)器的網(wǎng)絡(luò)彼此均能相互連接(公網(wǎng)和

    2024年02月14日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包