国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

StarRocks案例7:使用shell批量broker load導(dǎo)入hdfs數(shù)據(jù)

這篇具有很好參考價(jià)值的文章主要介紹了StarRocks案例7:使用shell批量broker load導(dǎo)入hdfs數(shù)據(jù)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

一. 問(wèn)題描述

近期需要進(jìn)行補(bǔ)錄數(shù)據(jù),需要將hive的歷史數(shù)據(jù)遷移到StarRocks,因?yàn)樾枰a(bǔ)錄的數(shù)據(jù)較多,hive和StarRocks均使用的是分區(qū)表,兩邊的日期格式也不同,hive這邊是 yyyymmdd格式,StarRocks這邊是yyyy-mm-dd格式。

二. 解決方案

之前一直是使用DataX來(lái)從hive導(dǎo)入到StarRocks,因?yàn)镈ataX是單節(jié)點(diǎn)的,而hive和StarRocks是分布式的,所以這個(gè)性能其實(shí)一般,而且DataX配置json確實(shí)有點(diǎn)麻煩。

于是嘗試使用StarRocks自帶的broker load來(lái)進(jìn)行導(dǎo)入,當(dāng)然此時(shí)可以配合shell腳本來(lái)使用。
需要從2023-03-01 一直導(dǎo)入到2023-05-30 近90天的數(shù)據(jù)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-501846.html

#!/bin/bash
#Author         : 只是甲 at 20230609
#Remarks        : 通過(guò)broker load 導(dǎo)入hive 表

# 設(shè)置mysql的登錄用戶(hù)名和密碼(根據(jù)實(shí)際情況填寫(xiě))
mysql_user="root"
mysql_password="passwd"
mysql_host="ip"
mysql_port="9030"
database_name="db_name"

hive_table=hive_table_name
mpp_table=mpp_table_name

for i in {0..90};
do
    dt=`date -d "+$i day 2023-03-01" +%Y%m%d`
    startdate=`date -d "+$i day 2023-03-01" +%Y-%m-%d`
    echo "########$startdate#########"
    mysql -h${mysql_host} -P${mysql_port} -u${mysql_user} -p${mysql_password} -D${database_name} << EOF
LOAD LABEL label_${mpp_table}_$dt
(
    DATA INFILE("hdfs://ip:8020/hive/warehouse/${hive_table}/dt=${dt}/*") 
    INTO TABLE ${mpp_table}
    FORMAT AS "orc" 
    (col1, col2, col3, dt)
    SET
    (
     sr_date="$startdate",
     col1 = col1,
     col2 = col2,
     col3 = col3
    )
)
WITH BROKER 'broker_1'
(
"hadoop.security.authentication" = "simple",
"username" = "your_username",
"password" = "your_password"
)
PROPERTIES
(
    "timeout" = "3600"
);

EOF

done

到了這里,關(guān)于StarRocks案例7:使用shell批量broker load導(dǎo)入hdfs數(shù)據(jù)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Apache Doris (三十):Doris 數(shù)據(jù)導(dǎo)入(八)Spark Load 3- 導(dǎo)入HDFS數(shù)據(jù)

    目錄 1. 準(zhǔn)備HDFS數(shù)據(jù) 2. 創(chuàng)建Doris表 3. 創(chuàng)建Spark Load導(dǎo)入任務(wù) 4. 查看導(dǎo)入任務(wù)狀態(tài) 進(jìn)入正文之前,歡迎訂閱專(zhuān)題、對(duì)博文點(diǎn)贊、評(píng)論、收藏,關(guān)注IT貧道?

    2024年02月16日
    瀏覽(28)
  • Neo4j---(3)批量導(dǎo)入實(shí)體和關(guān)系csv文件之LOAD CSV

    Neo4j---(3)批量導(dǎo)入實(shí)體和關(guān)系csv文件之LOAD CSV

    一、幾大導(dǎo)入方式的差異 1. neo4j-admin import: 只能初始化,若要用的話必需清空之前的數(shù)據(jù)庫(kù)。 不能很好的適應(yīng)不斷要添加新節(jié)點(diǎn)和關(guān)系的需求。 必需關(guān)閉數(shù)據(jù)庫(kù) neo4j stop 2. LOAD CSV 可以在原數(shù)據(jù)庫(kù)基礎(chǔ)上新增數(shù)據(jù),導(dǎo)入中小型數(shù)據(jù),1kw條左右 不用關(guān)閉數(shù)據(jù)庫(kù),可以直接在b

    2024年02月07日
    瀏覽(12)
  • Neo4j 批量導(dǎo)入數(shù)據(jù) 從官方文檔學(xué)習(xí)LOAD CSV 命令 小白可食用版

    Neo4j 批量導(dǎo)入數(shù)據(jù) 從官方文檔學(xué)習(xí)LOAD CSV 命令 小白可食用版

    ???????在使用Neo4j進(jìn)行大量數(shù)據(jù)導(dǎo)入的時(shí)候,發(fā)現(xiàn)如果用代碼自動(dòng)一行一行的導(dǎo)入效率過(guò)低,因此明白了為什么需要用到批量導(dǎo)入功能,在Neo4j中允許批量導(dǎo)入CSV文件格式,剛開(kāi)始從網(wǎng)上的中看了各種半殘的博客或者視頻,拼拼湊湊也實(shí)現(xiàn)了功能,然后想寫(xiě)個(gè)博客記錄一下

    2024年03月16日
    瀏覽(34)
  • csv批量導(dǎo)入mysql案例說(shuō)明

    CSV文件是一種以逗號(hào)分隔的值文件,也叫做逗號(hào)分隔值文件。它可以在不同軟件之間進(jìn)行數(shù)據(jù)傳輸,也可以輕松地將數(shù)據(jù)導(dǎo)入到MySQL數(shù)據(jù)庫(kù)中。本文將介紹如何使用CSV批量導(dǎo)入MySQL命令,并提供一個(gè)CSV導(dǎo)入MySQL的案例。 一、CSV批量導(dǎo)入MySQL命令 格式化CSV文件 在將CSV文件導(dǎo)入M

    2024年02月04日
    瀏覽(11)
  • Apache Doris (三十三):Doris 數(shù)據(jù)導(dǎo)入(十一)Routine Load 2- 導(dǎo)入案例及注意事項(xiàng)

    目錄 1. 導(dǎo)入Kafka數(shù)據(jù)到Doris 2.?嚴(yán)格模式導(dǎo)入Kafka數(shù)據(jù)到Doris 3.?kafka 簡(jiǎn)單json格式數(shù)據(jù)導(dǎo)入到Doris

    2024年02月16日
    瀏覽(16)
  • 【Shell-HDFS】使用Shell腳本判斷HDFS文件、目錄是否存在

    【Shell-HDFS】使用Shell腳本判斷HDFS文件、目錄是否存在

    本文主要講述如何使用 Shell 腳本判斷 HDFS 文件或目錄是否存在,算是一個(gè)小技巧吧,這幾天做 distcp 的時(shí)候用到的,因?yàn)橐袛?HDFS 中是否存在某個(gè)目錄。 Shell腳本測(cè)試: 1、測(cè)試路徑是否存在。 2、測(cè)試目錄是否存在。 3、測(cè)試文件是否存在。 4、測(cè)試路徑大小是否大于0。

    2023年04月24日
    瀏覽(97)
  • Sqoop【實(shí)踐 01】Sqoop1最新版 MySQL與HDFS\Hive\HBase 核心導(dǎo)入導(dǎo)出案例分享+多個(gè)WRAN及Exception問(wèn)題處理(一篇即可學(xué)會(huì)在日常工作中使用Sqoop)

    1?? 查看所有命令【 sqoop help 】 2?? 查看某條命令的具體使用方法【 sqoop help COMMAND 】 查詢(xún)MySQL所有數(shù)據(jù)庫(kù),通常用于 Sqoop 與 MySQL 連通測(cè)試: 【具體參數(shù)可以使用 sqoop help list-databases 查看】實(shí)例: 結(jié)果: 【2個(gè)】WARN處理: 查詢(xún)指定數(shù)據(jù)庫(kù)中所有數(shù)據(jù)表,這里要注意一下

    2024年03月18日
    瀏覽(27)
  • Hadoop的安裝和使用,Windows使用shell命令簡(jiǎn)單操作HDFS

    Hadoop的安裝和使用,Windows使用shell命令簡(jiǎn)單操作HDFS

    目錄 1,Hadoop簡(jiǎn)介 2,分布式文件系統(tǒng)HDFS 1. HDFS簡(jiǎn)介 2.HDFS體系結(jié)構(gòu) 3,Hadoop的安裝 1.使用WEB管理頁(yè)面操作HDFS 2.使用命令操作HDFS ?4,HDFS的基本使用方法 1)啟動(dòng)hadoop,為當(dāng)前登錄的Windows用戶(hù)在HDFS中創(chuàng)建用戶(hù)目錄 2)在用戶(hù)名user/zhangna下創(chuàng)建test目錄 3)將windows操作系統(tǒng)本地的一個(gè)

    2024年02月04日
    瀏覽(27)
  • hive使用文件方式批量導(dǎo)入數(shù)據(jù)

    hive使用文件方式批量導(dǎo)入數(shù)據(jù)

    1. 創(chuàng)建表,確定分隔符,換行符: 2. 編寫(xiě)數(shù)據(jù)文件: 3. 查看此表所在路徑:describe extended 表名; 4. 將本地生成好的數(shù)據(jù)上傳至服務(wù)器 5. 將生成的txt文件put進(jìn)HDFS集群 /hive/warehouse/mdp_uat.db/test : 集群路徑,第三部查詢(xún)到的表路徑(提前使用 hadoop fs -ls 查看下路徑,確認(rèn)路徑正確

    2024年02月13日
    瀏覽(18)
  • 第3.1章:StarRocks數(shù)據(jù)導(dǎo)入--Insert into

    第3.1章:StarRocks數(shù)據(jù)導(dǎo)入--Insert into

    Insert Into是我們?cè)贛ySQL中常用的導(dǎo)入方式,StarRocks同樣也支持使用Insert into的方式進(jìn)行數(shù)據(jù)導(dǎo)入,并且每次insert into操作都是一次完整的導(dǎo)入事務(wù)。 在StarRocks中,Insert的語(yǔ)法和MySQL等數(shù)據(jù)庫(kù)的語(yǔ)法類(lèi)似,具體可以參考官網(wǎng)文檔: Insert Into 導(dǎo)入 @ InsertInto @ StarRocks Docs https://docs.s

    2024年02月08日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包