国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善)

這篇具有很好參考價值的文章主要介紹了一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一、目的

在實際項目中,從Kafka到HDFS的數(shù)據(jù)是每天自動生成一個文件,按日期區(qū)分。而且Kafka在不斷生產(chǎn)數(shù)據(jù),因此看看kettle是不是需要時刻運行?能不能按照每日自動生成數(shù)據(jù)文件?

為了測試實際項目中的海豚定時調(diào)度從Kafka到HDFS的kettle任務(wù)情況,特地提前跑一下海豚定時調(diào)度這個任務(wù),看看到底什么情況。

二、海豚調(diào)度任務(wù)配置

(一)SHELL腳本配置

#!/bin/bash
source /etc/profile

/opt/install/kettle9.2/data-integration/pan.sh -rep=hurys_linux_kettle_repository -user=admin -pass=admin -dir=/kafka_to_hdfs/ -trans=04_Kafka_to_HDFS_turnratio level=Basic >>/home/log/kettle/04_Kafka_to_HDFS_turnratio_`date +%Y%m%d`.log?

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(二)定時任務(wù)設(shè)置

定時任務(wù)設(shè)置為每天的零點,零點一到開始執(zhí)行任務(wù)

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(三)最后工作流情況

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

三、啟動工作流

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

工作流啟動,成功!工作流一直在跑

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

相應(yīng)的任務(wù)實例也在跑!

四、啟動工作流每天HDFS情況

(一)第一天為2023/8/30日

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

由于第一天開始執(zhí)行任務(wù),因此自動生成2023/08/30的HDFS文件

(二)第二天為2023/8/31日

1、2023/08/31早上更新

(1)04_Kafka_to_HDFS_turnratio任務(wù)

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

第二天的海豚任務(wù)自動調(diào)度,自動生成2023/08/31的HDFS文件

但問題是,除了再跑31日的任務(wù)外,30日的任務(wù)還在跑,可能是定時配置有問題,需要優(yōu)化

而且這樣搞容易把kettle搞出問題!

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

2、2023/08/31晚上更新

(1)04_Kafka_to_HDFS_turnratio任務(wù)

不設(shè)置定時任務(wù),kettle任務(wù)一直運行,已經(jīng)生成8月31日的文件,觀察明天會不會自動生成9月1日的數(shù)據(jù)文件

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

已生成的8月31日文件

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(2)01_Kafka_to_HDFS_queue任務(wù)

不設(shè)置定時任務(wù),kettle任務(wù)一直運行,已經(jīng)生成8月31日的文件,觀察明天會不會自動生成9月1日的數(shù)據(jù)文件

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

已生成的8月31日文件

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

如果明早不能自動生成9月1日的文件,那就要設(shè)置海豚定時為每天的執(zhí)行時間為0時0分0秒到23時59分59秒? 或者在腳本里設(shè)置時間? 或者在kettle里設(shè)置時間????

(三)第三天為2023/9/1日

1、2023/09/01早上更新

昨晚海豚調(diào)度的兩個kettle任務(wù)以失敗告終,沒有自動生成9月1日的數(shù)據(jù)文件

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

今日再嘗試其他的方式

2、2023/09/01下午更新

下午嘗試用Crontab定時任務(wù)調(diào)度Kettle腳本

[root@hurys22 kettle_job_sh]# crontab -l
SHELL=/bin/bash

# ?*/1 * * * * /bin/sh ?/opt/install/kettle9.2/kettle_job_sh/test2.sh

06-07 17 * * * /bin/sh ?/opt/install/kettle9.2/kettle_job_sh/01_Kafka_to_HDFS_queue.sh
設(shè)置每天的17點的6分到7分中執(zhí)行

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

但是日志文件顯示kettle任務(wù)卻一直再跑

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

當(dāng)然,HDFS中確實生成了9月1日今日的文件,而且任務(wù)運行時間是我設(shè)置的17點7分

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

這個方法不行,后面再試試其他方法?怎么就不會設(shè)置任務(wù)停止呢

(四)第四天為2023/9/4日

1、2023/09/04早上更新

由于Kafka里有時間戳字段,因此在kettle任務(wù)里獲取當(dāng)前系統(tǒng)時間戳的日期字段、然后文件名直接從這個日期字段獲取

(1)當(dāng)前系統(tǒng)時間戳的日期字段

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(2)HDFS輸出中文件名直接獲取這個日期字段,這樣kettle任務(wù)運行時,是不是能自動生成每天的數(shù)據(jù)文件?

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(3)測試結(jié)果,任務(wù)可以跑通,但是HDFS生成的文件不知卻在哪?

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

終于查到了,原來這樣導(dǎo)出的文件不在HDFS,而在kettle的安裝文件里,即在本地

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

而且這么直接以日期命名也有問題,因為有多個Kafka,不可能僅僅以日期命名區(qū)分

2、2023/09/04晚上更新?

因為上午的思路有問題,導(dǎo)出的文件沒有在HDFS中,反而在本地,于是下午又換了種思路。

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

還是從系統(tǒng)獲得時間day,但是文件路徑直接寫成HDFS的文件路徑+day,這樣的url字段才是HDFS輸出控件中的文件名字段

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(1)用海豚調(diào)度對比,定時調(diào)度01_Kafka_to_HDFS_queue任務(wù)

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

目前已生成生成9月4日的文件

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(2)用海豚調(diào)度對比,不加定時調(diào)度04_Kafka_to_HDFS_turnratio任務(wù)

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle目前已生成生成9月4日的文件

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(五)第五天為2023/9/5日

1、2023/09/05早上更新

雖然自動生成了9月5日的文件,但是由于數(shù)據(jù)量過大、加上把hadoop.tmp.dir放在了/opt/soft/hadoop313/hadooptmp,導(dǎo)致opt文件夾磁盤溢出,使得namenode處于安全模式。

花了一上午時間終于解決NameNode的安全模式問題,發(fā)現(xiàn)應(yīng)該把HADOOP 運行時存儲路徑放在home目錄下,因為home的磁盤空間最大

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

2、2023/09/05晚上更新

驚喜?。。?/span>

可能已經(jīng)找到了解決方法,直接對Kafka里的時間戳字段進行截取,然后拼接文件路徑,從而形成一個可以根據(jù)時間戳字段的日期變動的HDFS文件,即每天自動生成一個數(shù)據(jù)文件

(1)通過Java自定義文件名? 字段url(HDFS路徑+截取的可變的時間戳字段)

var url="hdfs://root:***@hurys22:8020/rtp/queue_dynamic/queue_dynamic"+substr(create_time,0,10)

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(2)在HDFS輸出控件的文件就選擇url字段
一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle(3)結(jié)果

已經(jīng)生成了9月5日的數(shù)據(jù)文件,不需要海豚定時調(diào)度,只需要海豚一直跑kettle任務(wù)即可!

雖然還是生成了9月5日的數(shù)據(jù)文件,不過我今天下午按照生成每小時維度的數(shù)據(jù)文件測試過

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

下午16時運行任務(wù),生成了16時的數(shù)據(jù)文件,然后到17時,又生成了17時的數(shù)據(jù)文件,這兩個數(shù)據(jù)文件都在跑,而且HDFS里大小顯示都為0。

不過區(qū)別是,16時的數(shù)據(jù)是完整的,17時的數(shù)據(jù)文件是不斷增加的。因為Kafka是實時的,17時只會發(fā)送17時的數(shù)據(jù),不會發(fā)送16時數(shù)據(jù)。下面是16時的文件數(shù)據(jù)

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

16時的數(shù)據(jù)文件是有固定的數(shù)據(jù),17點后就沒有再寫入數(shù)據(jù)。之所以看不到這個這個block的大小,是因為寫入數(shù)據(jù)的規(guī)模太小了,等到這個寫入的數(shù)據(jù)規(guī)模達到128MB,即一個塊大小后才會看到這個block的數(shù)據(jù)。

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

所以只要一直運行這個kettle任務(wù)、不斷寫入數(shù)據(jù)即可,只要寫入的數(shù)據(jù)規(guī)模達到128MB,第一個block就會被看到。

已用海豚調(diào)度一個kettle任務(wù),沒有定時,就一直跑。目前HDFS已生成了9月5日的數(shù)據(jù)文件,明天就可以觀察幾點

1、有沒有自動生成明天9月6日的數(shù)據(jù)文件

2、今天9月5日的數(shù)據(jù)文件里面的數(shù)據(jù)是不是固定的、完整的,晚上12點之后不再寫入

3、等到寫入數(shù)據(jù)規(guī)模達到128MB看第一個block的數(shù)據(jù)大小可不可看到?

明天9月6日除了看這幾點外,還用flume去做Kafka到HDFS的采集工作,以防萬一,這兩天被這個問題搞得頭疼,kettle真是一個易入門難精通的工具!

(六)第六天為2023/9/6日

1、2023/09/06早上更新

由于昨晚Kafka突然有問題,導(dǎo)致kettle沒能導(dǎo)入數(shù)據(jù)到HDFS的文件,今早已重新啟動Kafka服務(wù)

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(1)目前已重新啟動海豚調(diào)度的kettle服務(wù)

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(2)目前已自動生成9月6日的數(shù)據(jù)文件

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(3)只能明天9月7日看一下昨晚的3個問題

1、有沒有自動生成明天9月7日的數(shù)據(jù)文件

2、今天9月6日的數(shù)據(jù)文件里面的數(shù)據(jù)是不是固定的、完整的,晚上12點之后不再寫入

3、等到寫入數(shù)據(jù)規(guī)模達到128MB看第一個block的數(shù)據(jù)大小可不可看到?

2、2023/09/06下午更新

(1)為了以防萬一,加了個對比測試??纯慈绻惶斓臄?shù)據(jù)放不滿一個block或者部分多余數(shù)據(jù)放不滿一個block,可不可以正常顯示?即使它總的寫入數(shù)據(jù)量大于128MB

不僅多加了幾臺模擬設(shè)備推送數(shù)據(jù),還對動態(tài)排隊數(shù)據(jù)和靜態(tài)排隊數(shù)據(jù)兩個kettle任務(wù)進行對比

(2)動態(tài)排隊數(shù)據(jù)有自動日期分區(qū),可以自動分成不同日期的文件,就是昨晚跑的kettle任務(wù)

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle文章來源地址http://www.zghlxwxcb.cn/news/detail-699985.html

(3)而靜態(tài)排隊數(shù)據(jù)沒有日期分區(qū),就往第一個日期文件里寫入數(shù)據(jù)

目前靜態(tài)排隊數(shù)據(jù)也已經(jīng)生成了9月6日的數(shù)據(jù)文件,后面會一直寫入這個文件

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

明早對比這兩個kettle任務(wù)的數(shù)據(jù)文件看看情況

(七)第七天為2023/9/7日

1、2023/09/07早上更新

A、HDFS文件有日期分區(qū)的動態(tài)排隊數(shù)據(jù)kettle任務(wù)狀況

(1)首先是自動生成9月7日的文件

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(2)然后是6日的數(shù)據(jù)文件固定,沒有7日的數(shù)據(jù)

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

(3)6日的數(shù)據(jù)這一塊由于只有62.8MB,因此HDFS的塊沒有顯示大小

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

B、HDFS文件沒有日期分區(qū)的靜態(tài)排隊數(shù)據(jù)kettle任務(wù)狀況

由于寫入的HDFS文件沒有日期分區(qū),而且數(shù)據(jù)量寫入超過了128MB,所以這一塊的數(shù)據(jù)雖然在不斷寫入,但是這一塊的文件顯示大小為128MB

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

疑問:現(xiàn)在任務(wù)依然運行,我想看看這個塊已經(jīng)有128MB后,會不會在其他block寫入數(shù)據(jù)?

2、2023/09/07晚上更新

A、HDFS文件有日期分區(qū)的動態(tài)排隊數(shù)據(jù)kettle任務(wù)狀況

(1)今日9月7日寫入的數(shù)據(jù)量超過128MB,因此HDFS已顯示文件大小

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

總結(jié)一下:用kettle采集Kafka數(shù)據(jù)寫入HDFS這條路是可行的,只要設(shè)置變動的文件名、生成每日的數(shù)據(jù)文件,然后一直跑任務(wù)就好!?。?mark hidden color="red">文章來源:http://www.zghlxwxcb.cn/news/detail-699985.html

一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善),Kettle,大數(shù)據(jù)調(diào)度工具,kafka,hdfs,kettle

到了這里,關(guān)于一百六十八、Kettle——用海豚調(diào)度器定時調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • JAVA面試題分享一百六十二:Kafka消息重復(fù)消費問題?

    消息重復(fù)消費的根本原因都在于:已經(jīng)消費了數(shù)據(jù),但是offset沒有成功提交。 其中很大一部分原因在于發(fā)生了再均衡。 1)消費者宕機、重啟等。導(dǎo)致消息已經(jīng)消費但是沒有提交offset。 2)消費者使用自動提交offset,但當(dāng)還沒有提交的時候,有新的消費者加入或者移除,發(fā)生

    2024年02月03日
    瀏覽(18)
  • JAVA面試題分享一百六十三:Kafka如何實現(xiàn)延時推送?

    JAVA面試題分享一百六十三:Kafka如何實現(xiàn)延時推送?

    目錄 一、延時隊列定義 二、技術(shù)實現(xiàn)方案 1. Redis 2. Kafka 3. RabbitMQ 4. RocketMQ 三、Kafka延時隊列背景 四、Kafka延時隊列實現(xiàn)思路 六、Kafka延時隊列架構(gòu)圖 七、kafka延時任務(wù)代碼實現(xiàn) 1. KafkaDelayQueue:Kafka延遲隊列 2. KafkaDelayQueueFactory:Kafka延遲隊列工廠 3. KafkaPollListener:Kafka延遲隊

    2024年02月04日
    瀏覽(23)
  • 每天一個數(shù)據(jù)分析題(一百六十)

    以下關(guān)于代碼片段(使用sklearn)的使用和PCA(主成分分析)的描述中,哪項是正確的? A. preprocessing.scale(data)用于對數(shù)據(jù)進行歸一化處理,確保PCA分析前各特征處于同一量級。 B. PCA(n_components=9)將數(shù)據(jù)降維了9個主成分。 C. pca.explained_variance_輸出的是降維后各主成分的方差。

    2024年02月20日
    瀏覽(23)
  • 第一百六十四回 如何實現(xiàn)NumberPicker

    第一百六十四回 如何實現(xiàn)NumberPicker

    我們在上一章回中介紹了\\\"如何在任意位置顯示PopupMenu\\\"相關(guān)的內(nèi)容,本章回中將介紹 如何實現(xiàn)NumberPicker .閑話休提,讓我們一起Talk Flutter吧。 我們在本章回中介紹的 NumberPicker 主要用來實現(xiàn)數(shù)字選擇功能,比如選擇年月日,當(dāng)然也可以使用 YearPicker 實現(xiàn),不過YearPicer是把年月

    2024年02月07日
    瀏覽(27)
  • 每天一個數(shù)據(jù)分析題(一百六十四)

    關(guān)于OLAP系統(tǒng),下列選項不正確的是() A. 是基于數(shù)據(jù)倉庫的信息進行分析處理過程 B. 用戶數(shù)量相對較少,其用戶主要是業(yè)務(wù)決策人員與管理人員 C. 對響應(yīng)時間要求非常高。 D. 基礎(chǔ)數(shù)據(jù)來源于生產(chǎn)系統(tǒng)的操作數(shù)據(jù),也就是說,OLAP系統(tǒng)的數(shù)據(jù)來源與OLTP系統(tǒng)。 題目來源于CDA模

    2024年02月22日
    瀏覽(24)
  • PCL點云處理之多種體素濾波方法大匯總(一百六十四)

    對PCL中的基于八叉樹體素濾波方法,以及在此基礎(chǔ)上,自己進一步實現(xiàn)的新濾波方法,進行一個匯總,列出各自的效果和,具體的實現(xiàn)代碼 PCL中自帶的濾波方法,也是最常用的濾波方法,應(yīng)該是體素中的點云重心取代原始點,但使用時要注意體素不可過小,

    2024年02月05日
    瀏覽(85)
  • 一百六十九、Hadoop——Hadoop退出NameNode安全模式與查看磁盤空間詳情(踩坑,附截圖)

    一百六十九、Hadoop——Hadoop退出NameNode安全模式與查看磁盤空間詳情(踩坑,附截圖)

    在海豚跑定時跑kettle的從Kafka到HDFS的任務(wù)時,由于Linux服務(wù)器的某個文件磁盤空間滿了,導(dǎo)致Hadoop的NodeName進入安全模式,此時光執(zhí)行 hdfs dfsadmin -safemode leave命令語句沒有效果( 雖然顯示Safe mode is OFF,但沒效果,一旦執(zhí)行還是報錯 ) Caused by: org.apache.hadoop.ipc.RemoteException(org

    2024年02月10日
    瀏覽(21)
  • 一百八十九、ClickHouse——在海豚調(diào)度器中執(zhí)行ClickHouse建庫建表語句

    一百八十九、ClickHouse——在海豚調(diào)度器中執(zhí)行ClickHouse建庫建表語句

    由于Hive處理好的結(jié)果數(shù)據(jù)要同步到ClickHouse中,因此需要在在海豚調(diào)度器中執(zhí)行ClickHouse的ADS層的建庫建表語句 1、直接在海豚中創(chuàng)建執(zhí)行SQL文件腳本的工作流 (1)第一步,在資源中心上傳ADS層的建庫建表SQL文件 (2)第二步,在項目里建工作流,添加運行SQL文件的腳本 #! /b

    2024年02月07日
    瀏覽(29)
  • Linux下部署kettle并配置定時調(diào)度

    Linux下部署kettle并配置定時調(diào)度

    1、安裝JAVA (1) 查看原系統(tǒng)版本,從圖中可以看出JDK版本為openJDK需要卸載,如果沒有安裝跳過即可 (2) 查看安裝信息 (3) 卸載OPENJDK (4) 下載對應(yīng)的JDK版本 這里我使用的kettle是9.1的,jdk-8u371-linux-x64.tar測試可用 (5) 配置環(huán)境變量 添加如下行: 使環(huán)境變量生效 (6) 驗證JDK是否安裝成功

    2024年02月07日
    瀏覽(20)
  • 一百零八、Kettle采集Kafka數(shù)據(jù)到HDFS(踩坑,親測有效)

    一百零八、Kettle采集Kafka數(shù)據(jù)到HDFS(踩坑,親測有效)

    Kafka到HDFS,除了用Kafka API和flume之外,還可以用kettle,最大優(yōu)點是不用寫代碼! 版本:Kettle版本:8.2、Hadoop版本:3.1.3 前提:? ? 詳情請看鄙人的一百零一、Kettle8.2.0連接Hive3.1.2(踩坑,親測有效) http://t.csdn.cn/mWfOC http://t.csdn.cn/mWfOC 前提一、Hadoop系列配置文件已復(fù)制到kettle路徑

    2024年02月15日
    瀏覽(15)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包