国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

大數(shù)據(jù)之使用Flume監(jiān)聽端口采集數(shù)據(jù)流到Kafka

這篇具有很好參考價(jià)值的文章主要介紹了大數(shù)據(jù)之使用Flume監(jiān)聽端口采集數(shù)據(jù)流到Kafka。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

前言

題目:

一、讀題分析

二、處理過程??

1.先在Kafka中創(chuàng)建符合題意的Kafka的topic

?創(chuàng)建符合題意的Kafka的topic

2.寫出Flume所需要的配置文件

3.啟動(dòng)腳本然后啟動(dòng)Flume監(jiān)聽端口數(shù)據(jù)并傳到Kafka

啟動(dòng)flume指令

啟動(dòng)腳本,觀察Flume和Kafka的變化

三、重難點(diǎn)分析

總結(jié)?


前言

????????本題來源于全國(guó)職業(yè)技能大賽之大數(shù)據(jù)技術(shù)賽項(xiàng)電商賽題 - 實(shí)時(shí)數(shù)據(jù)采集?

題目:

flume采集接口數(shù)據(jù),大數(shù)據(jù)技術(shù),大數(shù)據(jù),kafka,flume


提示:以下是本篇文章正文內(nèi)容,下面案例可供參考()?

一、讀題分析

涉及組件:Flume,Kafka

涉及知識(shí)點(diǎn):

  1. Flume的原理,了解sources、,channels,sinks
  2. Kafka 的基本使用
  3. Flume的監(jiān)聽方式以及監(jiān)聽方法

二、處理過程??

本題是使用Flume監(jiān)聽端口的數(shù)據(jù)到Kafka,我還寫了一篇關(guān)于Flume監(jiān)聽本地文件到HDFS上。

鏈接:大數(shù)據(jù)之使用Flume監(jiān)聽本地文件采集數(shù)據(jù)流到HDFS,使用正則表達(dá)式獲取

1.先在Kafka中創(chuàng)建符合題意的Kafka的topic

先進(jìn)入到Kafka的目錄

cd $KAFKA_HOME

啟動(dòng)Kafka集群(單機(jī)也可以)

?創(chuàng)建符合題意的Kafka的topic

bin/kafka-topics.sh --create --bootstrap-server bigdata1:9092 --replication-factor 1 --partitions 4 --topic ods_mall_log

--partitions 4創(chuàng)建分區(qū)數(shù)為4? --replication-factor 1 生成副本數(shù)量1

2.寫出Flume所需要的配置文件

# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1

# Describe/configure the source
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 25001

# Describe the sink KafkaSink
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.bootstrap.servers = bigdata1:9092
a1.sinks.k1.kafka.topic = ods_mall_log

# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

3.啟動(dòng)腳本然后啟動(dòng)Flume監(jiān)聽端口數(shù)據(jù)并傳到Kafka

在 ~ 目錄 進(jìn)入到 /data_log目錄下,啟動(dòng)gen_ds_data_to_socket腳本

cd /data_log

./gen_ds_data_to_socket


啟動(dòng)flume指令

#如果Kafka沒有對(duì)應(yīng)的主題,則Flume會(huì)自動(dòng)創(chuàng)建Kafka的topic

#但是很有可能會(huì)不符合文章的意思,在這里必須要先手動(dòng)創(chuàng)建3個(gè)分區(qū)的Topic

bin/flume-ng agent -c conf/ -n a1 -f /opt/data/flume1.conf -Dflume.root.logger=INFO,console

flume-ng agent 必備!

-c????????Flume所需要的配置文件

-n????????conf配置文件取的名字,在這里是a1

-f? ? ? ? 寫出Flume配置文件的地址

-Dflume.root.logger=INFO,console? ? ? ? 在這里指定flume將數(shù)據(jù)打印在控制臺(tái)上,方便觀察

flume采集接口數(shù)據(jù),大數(shù)據(jù)技術(shù),大數(shù)據(jù),kafka,flume

在這里看到k1 啟動(dòng)了,就是我們配置的sink啟動(dòng)了,如果卡在這不動(dòng)了,說明flume沒有接受到數(shù)據(jù),檢查flune配置文件以及數(shù)據(jù)獲取的方式是否正確。


啟動(dòng)腳本,觀察Flume和Kafka的變化

啟動(dòng)腳本

flume采集接口數(shù)據(jù),大數(shù)據(jù)技術(shù),大數(shù)據(jù),kafka,flume

?1.觀察Flume,如果Flume有一行Cluster ID:xxxx的話,說明Flume已經(jīng)采集到數(shù)據(jù)并發(fā)到指定的地方?flume采集接口數(shù)據(jù),大數(shù)據(jù)技術(shù),大數(shù)據(jù),kafka,flume

?2.使用消費(fèi)Kafka的topic,觀察數(shù)據(jù)是否成功上傳到Kafka中

flume采集接口數(shù)據(jù),大數(shù)據(jù)技術(shù),大數(shù)據(jù),kafka,flume

?#消費(fèi)Kafka指定的topic 并取2條

--max-message 2????????最多獲取2條消息

--from-beginning? ? ? ? ?從最開始消費(fèi),如果沒有則是實(shí)時(shí)消費(fèi)
bin/kafka-console-consumer.sh --bootstrap-server bigdata1:9092 --from-beginning --topic ods_mall_log --max-message 2


三、重難點(diǎn)分析

Flume的配置文件需要自己手動(dòng)的去創(chuàng)建,官方?jīng)]有自帶的,這個(gè)如果不熟悉可以去Flume官網(wǎng)的用戶手冊(cè)上查到所有的配置,花點(diǎn)時(shí)間都是可以看懂的。

鏈接:Apache Flume Documentation

然后就是Kafka的基本使用,在這里不做敘述,請(qǐng)自行搜索學(xué)習(xí)


總結(jié)?

題目很簡(jiǎn)單,比賽過程中,對(duì)于這題的麻煩點(diǎn)就是,創(chuàng)建Kafka的主題時(shí),留意題目中給的分區(qū)的數(shù)量,然后就是Flume配置文件的記憶,你需要了解flume的原理和單元。

如何高效地采集數(shù)據(jù)是一個(gè)重要的問題。Flume是一個(gè)分布式的、可靠的、高可用的海量日志采集工具,可以輕松地采集、聚合和移動(dòng)大量的數(shù)據(jù)。在數(shù)據(jù)采集過程中,F(xiàn)lume可以使用網(wǎng)絡(luò)協(xié)議、文件系統(tǒng)和各種其他數(shù)據(jù)源來收集數(shù)據(jù)。Flume設(shè)計(jì)了一個(gè)事件模型來處理數(shù)據(jù),使用稱為“通道”的可配置緩沖區(qū)來存儲(chǔ)事件,以確保數(shù)據(jù)不會(huì)丟失。同時(shí),使用Flume將數(shù)據(jù)流轉(zhuǎn)到Kafka中,可以滿足將大量數(shù)據(jù)快速穩(wěn)定地傳輸至數(shù)據(jù)處理流程中的需求。Kafka是一個(gè)可擴(kuò)展的分布式流媒體平臺(tái),適用于處理觀察型數(shù)據(jù)。在Kafka中,數(shù)據(jù)以主題(topic)進(jìn)行組織,生產(chǎn)者(producer)向主題發(fā)送消息,消費(fèi)者(consumer)從主題讀取消息。Flume監(jiān)聽端口后采集數(shù)據(jù)流到Kafka中,在Kafka中以主題為單位高效地傳輸數(shù)據(jù),支持?jǐn)?shù)據(jù)的批量消費(fèi)和處理,能夠滿足大數(shù)據(jù)實(shí)時(shí)處理和分析的需求。因此,使用Flume監(jiān)聽端口采集數(shù)據(jù)流到Kafka中是大數(shù)據(jù)處理中常用的數(shù)據(jù)采集方案之一。

原創(chuàng)作品如需引用請(qǐng)標(biāo)明出處文章來源地址http://www.zghlxwxcb.cn/news/detail-713317.html

到了這里,關(guān)于大數(shù)據(jù)之使用Flume監(jiān)聽端口采集數(shù)據(jù)流到Kafka的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Flume學(xué)習(xí)-采集端口數(shù)據(jù)存入kafka

    Flume學(xué)習(xí)-采集端口數(shù)據(jù)存入kafka

    啟動(dòng)zookeeper、kafka并創(chuàng)建kafka主題 2、創(chuàng)建flume-kafka.conf配置文件 用于采集socket數(shù)據(jù)后存入kafka 在flume文件夾中的conf下新建flume-kafka.conf配置文件 設(shè)置監(jiān)聽本地端口10050 netcat發(fā)送的socket數(shù)據(jù),講采集到的數(shù)據(jù)存入kafka的hunter主題中 3、啟動(dòng)flume ./bin/flume-ng :?jiǎn)?dòng)Flume-ng二進(jìn)制文件。

    2024年02月03日
    瀏覽(26)
  • 掌握實(shí)時(shí)數(shù)據(jù)流:使用Apache Flink消費(fèi)Kafka數(shù)據(jù)

    掌握實(shí)時(shí)數(shù)據(jù)流:使用Apache Flink消費(fèi)Kafka數(shù)據(jù)

    ? ? ? ? 導(dǎo)讀:使用Flink實(shí)時(shí)消費(fèi)Kafka數(shù)據(jù)的案例是探索實(shí)時(shí)數(shù)據(jù)處理領(lǐng)域的絕佳方式。不僅非常實(shí)用,而且對(duì)于理解現(xiàn)代數(shù)據(jù)架構(gòu)和流處理技術(shù)具有重要意義。 ????????Apache Flink ?是一個(gè)在 有界 數(shù)據(jù)流和 無(wú)界 數(shù)據(jù)流上進(jìn)行有狀態(tài)計(jì)算分布式處理引擎和框架。Flink 設(shè)計(jì)旨

    2024年02月03日
    瀏覽(31)
  • SpringBoot 使用 RestTemplate 發(fā)送 binary 數(shù)據(jù)流

    SpringBoot 使用 RestTemplate 發(fā)送 binary 數(shù)據(jù)流

    情況說明: 接口A接受到一個(gè)數(shù)據(jù)流,在postman里的傳輸方式顯示如下: 接口A接受到這個(gè)數(shù)據(jù)流之后,需要轉(zhuǎn)發(fā)到接口B進(jìn)行處理。 這里要注意一點(diǎn)是: postman圖中的這種方式和MultipartFile流的傳輸方式不同,MultipartFile流方式,是在body的form表單中進(jìn)行傳輸,需要指定一個(gè)key,這

    2024年02月12日
    瀏覽(20)
  • STM32使用串口空閑中斷(IDLE)和 DMA接收一串?dāng)?shù)據(jù)流

    STM32使用串口空閑中斷(IDLE)和 DMA接收一串?dāng)?shù)據(jù)流

    方法一、使用宏定義判斷IDLE標(biāo)志位 空閑的定義是總線上在一個(gè)字節(jié)的時(shí)間內(nèi)沒有再接收到數(shù)據(jù),USART_IT_IDLE空閑中斷是檢測(cè)到有數(shù)據(jù)被接收后,總線上在一個(gè)字節(jié)的時(shí)間內(nèi)沒有再接收到數(shù)據(jù)的時(shí)候發(fā)生的。 串口空閑中斷(UART_IT_IDLE):STM32的IDLE的中斷在串口無(wú)數(shù)據(jù)接收的情況

    2024年01月23日
    瀏覽(27)
  • 使用Flink實(shí)現(xiàn)Kafka到MySQL的數(shù)據(jù)流轉(zhuǎn)換:一個(gè)基于Flink的實(shí)踐指南

    使用Flink實(shí)現(xiàn)Kafka到MySQL的數(shù)據(jù)流轉(zhuǎn)換:一個(gè)基于Flink的實(shí)踐指南

    在現(xiàn)代數(shù)據(jù)處理架構(gòu)中,Kafka和MySQL是兩種非常流行的技術(shù)。Kafka作為一個(gè)高吞吐量的分布式消息系統(tǒng),常用于構(gòu)建實(shí)時(shí)數(shù)據(jù)流管道。而MySQL則是廣泛使用的關(guān)系型數(shù)據(jù)庫(kù),適用于存儲(chǔ)和查詢數(shù)據(jù)。在某些場(chǎng)景下,我們需要將Kafka中的數(shù)據(jù)實(shí)時(shí)地寫入到MySQL數(shù)據(jù)庫(kù)中,本文將介紹

    2024年04月15日
    瀏覽(24)
  • 什么是Vue的數(shù)據(jù)流(單向數(shù)據(jù)流)?如何進(jìn)行數(shù)據(jù)流管理

    什么是Vue的數(shù)據(jù)流(單向數(shù)據(jù)流)?如何進(jìn)行數(shù)據(jù)流管理

    在Vue中,數(shù)據(jù)流是指數(shù)據(jù)的傳遞和管理方式。Vue采用的是單向數(shù)據(jù)流,也就是說,數(shù)據(jù)是從父組件流向子組件,子組件不能直接修改父組件的數(shù)據(jù)。本文將介紹Vue的數(shù)據(jù)流機(jī)制,以及如何進(jìn)行數(shù)據(jù)流管理。 Vue的數(shù)據(jù)流機(jī)制可以分為兩類:props和events。 Props 在Vue中,父組件可以

    2024年02月08日
    瀏覽(20)
  • 銀行儲(chǔ)蓄系統(tǒng)的頂層數(shù)據(jù)流圖及細(xì)化數(shù)據(jù)流圖

    銀行儲(chǔ)蓄系統(tǒng)的頂層數(shù)據(jù)流圖及細(xì)化數(shù)據(jù)流圖

    繪制出銀行儲(chǔ)蓄系統(tǒng)的頂層數(shù)據(jù)流圖及細(xì)化數(shù)據(jù)流圖; 銀行儲(chǔ)蓄系統(tǒng)存、取款流程如下: 1)業(yè)務(wù)員事先錄入利率信息; 2)如果是存款,儲(chǔ)戶填寫存款單,業(yè)務(wù)員將存款單鍵入系統(tǒng),系統(tǒng)更新儲(chǔ)戶存款信息(存款人姓名、存款人賬號(hào)、電話號(hào)碼、身份證號(hào)碼、存款金額、存

    2024年01月17日
    瀏覽(21)
  • Elasticsearch:將 ILM 管理的數(shù)據(jù)流遷移到數(shù)據(jù)流生命周期

    Elasticsearch:將 ILM 管理的數(shù)據(jù)流遷移到數(shù)據(jù)流生命周期

    警告 :此功能處于技術(shù)預(yù)覽階段,可能會(huì)在未來版本中更改或刪除。 Elastic 將努力解決任何問題,但技術(shù)預(yù)覽版中的功能不受官方 GA 功能的支持 SLA 的約束。目前的最新版本為 8.12。 在本教程中,我們將了解如何將現(xiàn)有數(shù)據(jù)流(data stream)從索引生命周期管理 (ILM) 遷移到數(shù)據(jù)

    2024年04月29日
    瀏覽(28)
  • react之react-redux的介紹、基本使用、獲取狀態(tài)、分發(fā)動(dòng)作、數(shù)據(jù)流、reducer的分離與合并等

    react之react-redux的介紹、基本使用、獲取狀態(tài)、分發(fā)動(dòng)作、數(shù)據(jù)流、reducer的分離與合并等

    官網(wǎng)地址 React 和 Redux 是兩個(gè)獨(dú)立的庫(kù),兩者之間職責(zé)獨(dú)立。因此,為了實(shí)現(xiàn)在 React 中使用 Redux 進(jìn)行狀態(tài)管理 ,就需要一種機(jī)制,將這兩個(gè)獨(dú)立的庫(kù)關(guān)聯(lián)在一起。這時(shí)候就用到 React-Redux 這個(gè)綁定庫(kù)了 作用:為 React 接入 Redux,實(shí)現(xiàn)在 React 中使用 Redux 進(jìn)行狀態(tài)管理。 react-r

    2024年02月11日
    瀏覽(31)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包