国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖)

這篇具有很好參考價(jià)值的文章主要介紹了二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖)。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、目的

為了實(shí)現(xiàn)用Flume實(shí)時(shí)采集Hive的操作日志到HDFS中,于是進(jìn)行了一場實(shí)驗(yàn)

二、前期準(zhǔn)備

(一)安裝好Hadoop、Hive、Flume等工具

二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖),Flume,flume,hive,hdfs

(二)查看Hive的日志在Linux系統(tǒng)中的文件路徑

[root@hurys23 conf]# find / -name hive.log
/home/log/hive312/hive.log
二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖),Flume,flume,hive,hdfs

(三)在HDFS中創(chuàng)建文件夾flume,即Hive日志寫入的HDFS文件

二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖),Flume,flume,hive,hdfs

三、創(chuàng)建Flume的任務(wù)文件

[root@hurys23 conf]# vi ?flume-file-hdfs.conf

# Name the components on this agent
a2.sources = r2
a2.sinks = k2
a2.channels = c2

# Describe/configure the source
a2.sources.r2.type = exec
a2.sources.r2.command = tail -F /home/log/hive312/hive.log

# Describe the sink
a2.sinks.k2.type = hdfs
a2.sinks.k2.hdfs.path = hdfs://hurys23:8020/flume/%Y%m%d/%H
#上傳文件的前綴
a2.sinks.k2.hdfs.filePrefix = logs-
#是否按照時(shí)間滾動文件夾
a2.sinks.k2.hdfs.round = true
#多少時(shí)間單位創(chuàng)建一個(gè)新的文件夾
a2.sinks.k2.hdfs.roundValue = 1
#重新定義時(shí)間單位
a2.sinks.k2.hdfs.roundUnit = hour
#是否使用本地時(shí)間戳
a2.sinks.k2.hdfs.useLocalTimeStamp = true
#積攢多少個(gè) Event 才 flush 到 HDFS 一次
a2.sinks.k2.hdfs.batchSize = 100
#設(shè)置文件類型,可支持壓縮
a2.sinks.k2.hdfs.fileType = DataStream
#多久生成一個(gè)新的文件
a2.sinks.k2.hdfs.rollInterval = 60
#設(shè)置每個(gè)文件的滾動大小
a2.sinks.k2.hdfs.rollSize = 134217700
#文件的滾動與 Event 數(shù)量無關(guān)
a2.sinks.k2.hdfs.rollCount = 0

# Use a channel which buffers events in memory
a2.channels.c2.type = memory
a2.channels.c2.capacity = 1000
a2.channels.c2.transactionCapacity = 100

# Bind the source and sink to the channel
a2.sources.r2.channels = c2
a2.sinks.k2.channel = c2

二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖),Flume,flume,hive,hdfs

注意

1、配置文件中的各項(xiàng)參數(shù)需要調(diào)式,這里只是為了演示,實(shí)現(xiàn)目的、打通路徑即可!實(shí)際在項(xiàng)目中操作時(shí)需要調(diào)試參數(shù)。

2、a2.sources.r2.command = tail -F /home/log/hive312/hive.log? ? ? ? ? ?為hive.log在Linux中的路徑

3、a2.sinks.k2.hdfs.path = hdfs://hurys23:8020/flume/%Y%m%d/%H? ? ??為寫入的HDFS文件路徑

四、啟動Flume任務(wù)文件

[root@hurys23 flume190]# bin/flume-ng agent -n a2 ?-f /usr/local/hurys/dc_env/flume/flume190/conf/flume-file-hdfs.conf

二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖),Flume,flume,hive,hdfs

五、Flume任務(wù)運(yùn)行時(shí)寫入的HDFS文件狀況

(一)目前時(shí)間

2023/12/5 14時(shí)

二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖),Flume,flume,hive,hdfs

(二)HDFS的flume文件夾中根據(jù)時(shí)間戳自動生成20231205文件夾、14文件夾及其logs文件

二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖),Flume,flume,hive,hdfs

二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖),Flume,flume,hive,hdfs

(三)HDFS的log文件內(nèi)容,以logs-.1701757858263為例

二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖),Flume,flume,hive,hdfs

六、關(guān)閉Flume任務(wù)

首先jps查看Flume任務(wù),然后直接kill程序

[root@hurys23 conf]# jps
28385 NodeManager
27938 SecondaryNameNode
16642 RunJar
27496 NameNode
27657 DataNode
8717 Jps
28215 ResourceManager
8282 Application
[root@hurys23 conf]# kill -9 8282

二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖),Flume,flume,hive,hdfs


Hive日志成功采集到HDFS!演示就先到這里吧,后面如果有需要就再更新。

再提醒一遍,博客中Flume配置文件里面的參數(shù)只是為了演示而已,具體實(shí)踐時(shí)需要根據(jù)實(shí)際情況進(jìn)行調(diào)整,不要照搬?。?!文章來源地址http://www.zghlxwxcb.cn/news/detail-759464.html

到了這里,關(guān)于二百一十一、Flume——Flume實(shí)時(shí)采集Linux中的Hive日志寫入到HDFS中(親測、附截圖)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 二百一十八、Hadoop——Hadoop啟動報(bào)錯(cuò)Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)

    二百一十八、Hadoop——Hadoop啟動報(bào)錯(cuò)Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)

    在完成Flume拓?fù)浣Y(jié)構(gòu)之聚合的開發(fā)案例,啟動了hurys23服務(wù)器早已安裝好的Hadoop,結(jié)果居然報(bào)錯(cuò)了 hurys23: Permission denied ( publickey,gssapi-keyex,gssapi-with-mic,password ). 啟動Hadoop發(fā)現(xiàn)報(bào)錯(cuò)后,jps查看一下,發(fā)現(xiàn)之啟動了ResourceManager服務(wù) [root@hurys23 ~]# jps 4096 ResourceManager 4823 Jps 根據(jù)報(bào)錯(cuò)提

    2024年02月02日
    瀏覽(16)
  • 一百一十一、Hive——從HDFS到Hive的數(shù)據(jù)導(dǎo)入(靜態(tài)分區(qū)、動態(tài)分區(qū))

    一百一十一、Hive——從HDFS到Hive的數(shù)據(jù)導(dǎo)入(靜態(tài)分區(qū)、動態(tài)分區(qū))

    分區(qū)表實(shí)際上就是對應(yīng)一個(gè) HDFS 文件系統(tǒng)上的獨(dú)立的文件夾, Hive 中的分區(qū)就是分目錄 ,把一個(gè)大的數(shù)據(jù)集根據(jù)業(yè)務(wù)需要分割成小的數(shù)據(jù)集。 在查詢時(shí)通過 where 子句中的表達(dá)式選擇查詢所需要的指定的分區(qū),這樣的查詢效率 會提高很多,所以我們需要把常常用在where 語句中

    2024年02月12日
    瀏覽(86)
  • C/C++基礎(chǔ)講解(一百一十一)之經(jīng)典篇(數(shù)組逆序/靜態(tài)變量/auto變量)

    很多時(shí)候,特別是剛步入大學(xué)的學(xué)子們,對于剛剛開展的計(jì)算機(jī)課程基本上是一團(tuán)迷霧,想要弄明白其中的奧秘,真的要花費(fèi)一些功夫,我和大家一樣都是這么啃過來的,從不知到知知,懵懂到入門,每一步都走的很艱辛,課程上,大學(xué)老師基本上講解上機(jī)實(shí)操得時(shí)間特別有

    2024年02月08日
    瀏覽(21)
  • JAVA面試題分享五百一十一:Spring Boot基于WebUploader實(shí)現(xiàn)超大文件上傳和斷點(diǎn)續(xù)傳

    JAVA面試題分享五百一十一:Spring Boot基于WebUploader實(shí)現(xiàn)超大文件上傳和斷點(diǎn)續(xù)傳

    目錄 前言 目標(biāo) 實(shí)現(xiàn)思路 大文件分片 合并分片 斷點(diǎn)續(xù)傳 代碼實(shí)現(xiàn) 1、webuploader組件中,分片上傳怎么開啟? 2、webuploader組件中,文件的md5值如何計(jì)算? 3、webuploader組件中,分片文件的md5值如何計(jì)算? 4、webuploader組件中,分片上傳的的請求在哪里觸發(fā)? 5、前端、后端如何校

    2024年02月19日
    瀏覽(28)
  • (二十一)大數(shù)據(jù)實(shí)戰(zhàn)——Flume數(shù)據(jù)采集之復(fù)制和多路復(fù)用案例實(shí)戰(zhàn)

    (二十一)大數(shù)據(jù)實(shí)戰(zhàn)——Flume數(shù)據(jù)采集之復(fù)制和多路復(fù)用案例實(shí)戰(zhàn)

    本節(jié)內(nèi)容我們完成Flume數(shù)據(jù)采集的一個(gè)多路復(fù)用案例,使用三臺服務(wù)器,一臺服務(wù)器負(fù)責(zé)采集本地日志數(shù)據(jù),通過使用Replicating ChannelSelector選擇器,將采集到的數(shù)據(jù)分發(fā)到另外倆臺服務(wù)器,一臺服務(wù)器將數(shù)據(jù)存儲到hdfs,另外一臺服務(wù)器將數(shù)據(jù)存儲在本機(jī),使用Avro的方式完成

    2024年02月09日
    瀏覽(26)
  • Sqoop與Flume的集成:實(shí)時(shí)數(shù)據(jù)采集

    Sqoop與Flume的集成:實(shí)時(shí)數(shù)據(jù)采集

    將Sqoop與Flume集成是實(shí)現(xiàn)實(shí)時(shí)數(shù)據(jù)采集和傳輸?shù)闹匾襟E之一。Sqoop用于將數(shù)據(jù)從關(guān)系型數(shù)據(jù)庫導(dǎo)入到Hadoop生態(tài)系統(tǒng)中,而Flume用于數(shù)據(jù)流的實(shí)時(shí)采集、傳輸和處理。本文將深入探討如何使用Sqoop與Flume集成,提供詳細(xì)的步驟、示例代碼和最佳實(shí)踐,以確保能夠成功實(shí)現(xiàn)實(shí)時(shí)數(shù)據(jù)

    2024年01月23日
    瀏覽(22)
  • 使用Flume-KafkaSource實(shí)時(shí)采集Avro格式數(shù)據(jù)

    Flume是一個(gè)可靠、可擴(kuò)展且具有高可用性的分布式系統(tǒng),用于在大規(guī)模數(shù)據(jù)集群中進(jìn)行高效的日志聚合、收集和傳輸。Kafka是一個(gè)分布式流處理平臺,用于處理高容量的實(shí)時(shí)數(shù)據(jù)流。本文將介紹如何使用Flume的KafkaSource來實(shí)時(shí)采集Avro格式的數(shù)據(jù),并提供相應(yīng)的源代碼。 首先,確

    2024年02月07日
    瀏覽(32)
  • 【flume實(shí)時(shí)采集mysql數(shù)據(jù)庫的數(shù)據(jù)到kafka】

    【flume實(shí)時(shí)采集mysql數(shù)據(jù)庫的數(shù)據(jù)到kafka】

    最近做了flume實(shí)時(shí)采集mysql數(shù)據(jù)到kafka的實(shí)驗(yàn),做個(gè)筆記,防止忘記 ?。?!建議從頭看到尾,因?yàn)橐恍┖唵蔚臇|西我在前面提了,后面沒提。 Kafka搭建:https://blog.csdn.net/cjwfinal/article/details/120803013 flume搭建:https://blog.csdn.net/cjwfinal/article/details/120441503?spm=1001.2014.3001.5502 編寫配置

    2024年02月03日
    瀏覽(24)
  • 第一百一十八回 如何獲取藍(lán)牙連接狀態(tài)

    我們在上一章回中介紹了如何連接藍(lán)牙設(shè)備相關(guān)的內(nèi)容,本章回中將介紹如何獲取藍(lán)牙連接狀態(tài).閑話休提,讓我們一起Talk Flutter吧。 我們在上一章回中介紹如何連接藍(lán)牙設(shè)備,但是如何知道藍(lán)牙設(shè)備是否連接成功呢?這就需要我們?nèi)カ@取藍(lán)牙設(shè)備的連接狀態(tài),通過藍(lán)牙設(shè)備

    2024年02月12日
    瀏覽(23)
  • Android之關(guān)機(jī)/重啟/recovery模式(一百一十五)

    1.方式一:App調(diào)用系統(tǒng)api 2.方式二:setprop 注意:在init的reboot.c中, ? ? ? ? ? adb reboot -p命令其實(shí)就是調(diào)用的setprop命令開關(guān)機(jī)的。? 3.方式三:

    2024年02月14日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包