国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Hudi系列15:Hudi元數(shù)據(jù)同步到Hive

這篇具有很好參考價值的文章主要介紹了Hudi系列15:Hudi元數(shù)據(jù)同步到Hive。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一. hive sync tool工具介紹

使用DataSource writer或HoodieDeltaStreamer寫入數(shù)據(jù)支持將表的最新模式同步到Hive metastore,這樣查詢就可以獲得新的列和分區(qū)。在這種情況下,最好從命令行或在一個獨立的jvm中運行,Hudi提供了一個HiveSyncTool,一旦你構(gòu)建了Hudi -hive模塊,就可以如下所示調(diào)用它。以下是我們?nèi)绾瓮缴鲜鯠atasource Writer寫入的表到Hive metastore。

語法:

cd hudi-hive
./run_sync_tool.sh  --jdbc-url jdbc:hive2:\/\/hiveserver:10000 --user hive --pass hive --partitioned-by partition --base-path <basePath> --database default --table <tableName>

二. 問題排查

hudi自身帶的 hive sync tool會存在一定的問題,直接運行會報各種各樣不同的錯誤。

修改

vim run_sync_tool.sh
  1. 解決hadoop依賴問題
    注釋這兩行
    Hudi系列15:Hudi元數(shù)據(jù)同步到Hive

新增兩行
Hudi系列15:Hudi元數(shù)據(jù)同步到Hive

  1. 解決Parquet沖突
    上傳到/home/software目錄
wget https://repo.maven.apache.org/maven2/org/apache/parquet/parquet-column/1.12.2/parquet-column-1.12.2.jar

Hudi系列15:Hudi元數(shù)據(jù)同步到Hive

三. 實操

代碼:

cd /home/hudi-0.12.0/hudi-sync/hudi-hive-sync
./run_sync_tool.sh  --jdbc-url jdbc:hive2:\/\/hp5:10000 --base-path hdfs://hp5:8020/tmp/hudi/flink_hudi_mysql_cdc5 --database test --table flink_hudi_mysql_cdc5

運行記錄:
Hudi系列15:Hudi元數(shù)據(jù)同步到Hive

Flink SQL 查看建表語句:

Flink SQL> show create table flink_hudi_mysql_cdc5;
CREATE TABLE `hive_catalog`.`hudidb`.`flink_hudi_mysql_cdc5` (
  `id` BIGINT NOT NULL,
  `name` VARCHAR(100),
  CONSTRAINT `PK_3386` PRIMARY KEY (`id`) NOT ENFORCED
) WITH (
  'write.precombine.field' = 'name',
  'compaction.async.enabled' = 'false',
  'hoodie.datasource.write.recordkey.field' = 'id',
  'path' = 'hdfs://hp5:8020/tmp/hudi/flink_hudi_mysql_cdc5',
  'connector' = 'hudi',
  'changelog.enabled' = 'true',
  'table.type' = 'MERGE_ON_READ'
)

Hive端查看建表語句:
Hudi系列15:Hudi元數(shù)據(jù)同步到Hive

Hudi系列15:Hudi元數(shù)據(jù)同步到Hive

MySQL 端持續(xù)插入數(shù)據(jù):文章來源地址http://www.zghlxwxcb.cn/news/detail-434432.html

DELIMITER //

CREATE PROCEDURE p5()
BEGIN
  
  declare l_n1 int default 21;
 
  
  while l_n1 <= 10000000 DO  
     insert into mysql_cdc (id,name) values (l_n1,concat('test',l_n1));
     set l_n1 = l_n1 + 1;
  end while;
  

END;
//

DELIMITER ;

參考:

  1. https://hudi.apache.org/docs/0.12.0/syncing_metastore

到了這里,關于Hudi系列15:Hudi元數(shù)據(jù)同步到Hive的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 任務15:使用Hive進行全國氣象數(shù)據(jù)分析

    任務15:使用Hive進行全國氣象數(shù)據(jù)分析

    任務描述 知識點 : 使用Hive進行數(shù)據(jù)分析 重? 點 : 掌握Hive基本語句 熟練使用Hive對天氣數(shù)據(jù)進行分析 內(nèi)? 容 : 使用Hive創(chuàng)建外部表 使用Hive對數(shù)據(jù)進行統(tǒng)計分析 任務指導 1. 使用Hive創(chuàng)建基礎表 將China_stn_city.csv文件上傳到HDFS的/china_stn目錄中 啟動metastore(后臺運行) 進入

    2024年01月16日
    瀏覽(26)
  • 如何使用 SeaTunnel 同步 MySQL 數(shù)據(jù)到 Hive

    第一步:環(huán)境準備 Java 8 或 11 并配置JAVA_HOME Git? Maven 第二步:下載SeaTunnel并安裝連接器 下載地址:https://seatunnel.apache.org/download/ 下載SeaTunnel并安裝2.3.0版本 https://www.apache.org/dyn/closer.lua/incubator/seatunnel/2.3.0/apache-seatunnel-incubating-2.3.0-bin.tar.gz 詳細的安裝過程可以參考:https://s

    2023年04月08日
    瀏覽(16)
  • Flink Catalog 解讀與同步 Hudi 表元數(shù)據(jù)的最佳實踐

    Flink Catalog 解讀與同步 Hudi 表元數(shù)據(jù)的最佳實踐

    博主歷時三年精心創(chuàng)作的《大數(shù)據(jù)平臺架構(gòu)與原型實現(xiàn):數(shù)據(jù)中臺建設實戰(zhàn)》一書現(xiàn)已由知名IT圖書品牌電子工業(yè)出版社博文視點出版發(fā)行,點擊《重磅推薦:建大數(shù)據(jù)平臺太難了!給我發(fā)個工程原型吧!》了解圖書詳情,京東購書鏈接:https://item.jd.com/12677623.html,掃描左側(cè)

    2024年02月22日
    瀏覽(24)
  • 使用Sqoop命令從Oracle同步數(shù)據(jù)到Hive,修復數(shù)據(jù)亂碼 %0A的問題

    使用Sqoop命令從Oracle同步數(shù)據(jù)到Hive,修復數(shù)據(jù)亂碼 %0A的問題

    一、創(chuàng)建一張Hive測試表 創(chuàng)建分區(qū)字段partition_date,指定分隔符“,” 二、編寫Sqoop數(shù)據(jù)同步命令 我這里使用的是shell腳本的方式: 命令相關屬性說明: --connect:連接Oracle數(shù)據(jù)庫的URL,例如jdbc:oracle:thin:@219.216.110.120:1521:orcl。 --username:連接Oracle數(shù)據(jù)庫的用戶名,例如TEST1。

    2024年02月04日
    瀏覽(20)
  • hudi介紹和使用

    hudi介紹和使用

    Hudi 是什么 Hudi(Hadoop Upserts Deletes and Incrementals縮寫):用于管理分布式文件系統(tǒng)DFS上大型分析數(shù)據(jù)集存儲。一言以蔽之,Hudi是一種針對分析型業(yè)務的、掃描優(yōu)化的數(shù)據(jù)存儲抽象,它能夠使DFS數(shù)據(jù)集在分鐘級的時延內(nèi)支持變更,也支持下游系統(tǒng)對這個數(shù)據(jù)集的增量處理。 Hud

    2024年02月02日
    瀏覽(17)
  • 大數(shù)據(jù)Hive(介紹+安裝+使用)

    大數(shù)據(jù)Hive(介紹+安裝+使用)

    ????????對數(shù)據(jù)進行統(tǒng)計分析,SOL是目前最為方便的編程工具,但是MapReduce支持程序開發(fā) (Java、Python等)但不支持SQL開發(fā)。 ????????Hive是一款 分布式SQL計算的工具 ,其主要功能是 將SQL語句翻譯成MapReduce程序 運行。 ????????使用HadoopMapReduce直接處理數(shù)據(jù)所面臨的問

    2024年04月13日
    瀏覽(23)
  • 數(shù)據(jù)同步工具—DataX—Web部署使用

    數(shù)據(jù)同步工具—DataX—Web部署使用

    以前了解datax,感覺對易用性不大好,目前發(fā)現(xiàn)已經(jīng)圖形配置工具。簡單整理一下。 Datax 的使用過程中,我們會發(fā)現(xiàn),不管是利用 java 調(diào)用以及 python 命令啟動的方式,我們都無法進行任務的管理,并且每次執(zhí)行任務前,我們 都需要編輯 Json 配置文件,這是比較繁瑣的,隨著業(yè)

    2024年02月05日
    瀏覽(23)
  • SeaTunnel 海量數(shù)據(jù)同步工具的使用(連載中……)

    SeaTunnel 海量數(shù)據(jù)同步工具的使用(連載中……)

    SeaTunnel 是一個非常易用,高性能、支持實時流式和離線批處理的海量數(shù)據(jù)處理產(chǎn)品,前身是 WaterDrop (中文名:水滴),自 2021年10月12日更名為 SeaTunnel 。2021年12月9日,SeaTunnel 正式通過Apache 軟件基金會的投票決議,以全票通過的優(yōu)秀表現(xiàn)正式成為 Apache 孵化器項目。 2022年

    2024年01月16日
    瀏覽(45)
  • 【Rust教程 | 基礎系列2 | Cargo工具】Cargo介紹及使用

    【Rust教程 | 基礎系列2 | Cargo工具】Cargo介紹及使用

    在編程世界中,工具的選擇與使用同樣重要,甚至有時候比編程語言本身更為重要。對于Rust來說,Cargo就是這樣一款強大的工具。本文將詳細介紹Cargo的各項功能,并通過實例演示如何使用這些功能。希望通過本文,讀者能夠熟練掌握Cargo的使用,從而更好地進行Rust開發(fā)。

    2024年02月15日
    瀏覽(70)
  • Hudi-集成 Hive

    Hudi-集成 Hive

    Hudi 源表對應一份 HDFS 數(shù)據(jù),通過 Spark,F(xiàn)link 組件或者 Hudi CLI,可以將 Hudi 表的數(shù)據(jù)映射為 *Hive 外部表* ,基于該外部表, Hive可以方便的進行實時視圖,讀優(yōu)化視圖以及增量視圖的查詢。 集成步驟 以 hive3.1.2、hudi 0.12.0為例,其他版本類似。 (1)拷貝編譯好的jar包 將 hudi-

    2024年02月01日
    瀏覽(16)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包