国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【大數(shù)據(jù)工具】Kafka偽分布式、分布式安裝和Kafka-manager工具安裝與使用

這篇具有很好參考價(jià)值的文章主要介紹了【大數(shù)據(jù)工具】Kafka偽分布式、分布式安裝和Kafka-manager工具安裝與使用。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Kafka 安裝

Kafka 安裝包下載地址:https://archive.apache.org/dist/kafka/

1. Kafka 偽分布式安裝

1. 上傳并解壓 Kafka 安裝包

  1. 使用 FileZilla 或其他文件傳輸工具上傳 Kafka 安裝包:kafka_2.11-0.10.0.0.tgz
  2. 解壓安裝包
[root@bigdata software]# tar -zxvf kafka_2.11-0.10.0.0.tgz

2. 編輯配置文件

[root@bigdata software]# mv kafka_2.11-0.10.0.0 kafka
[root@bigdata software]# cd kafka/config/
[root@bigdata config]# cp server.properties server1.properties
[root@bigdata config]# vi server1.properties
# 每臺(tái) brokerId 都不相同,此處設(shè)置1
broker.id=1

# 在 log.retention.hours=168 后新增下面三行
message.max.byte=5242880
default.replication.factor=1
replica.fetch.max.bytes=5242880

# 設(shè)置zookeeper的連接端口(按實(shí)際填寫即可,下邊zk也是偽分布的)
# 說明:直接用節(jié)點(diǎn)名:端口,需要在本機(jī) /etc/hosts 中編寫解析 172.16.15.111 bigdata
zookeeper.connect=bigdata:2181,bigdata:2182,bigdata:2183

# 日志文件的目錄,自定義即可,注意區(qū)分
log.dirs=/software/kafka/logs/worker1

3. 拷貝并修改配置文件

[root@bigdata config]# cp server1.properties server2.properties
[root@bigdata config]# cp server1.properties server3.properties

分別修改 server2.properties、server3.properties

[root@bigdata config]# vi server2.properties
broker.id=2
log.dirs=/software/kafka/logs/worker2

[root@bigdata config]# vi server3.properties
broker.id=3
log.dirs=/software/kafka/logs/worker3

4. 創(chuàng)建日志文件

[root@bigdata config]# cd ../logs
[root@bigdata logs]# mkdir worker1 worker2 worker3

5. 驗(yàn)證

[root@bigdata kafka]# ./bin/kafka-server-start.sh -daemon ./config/server1.properties
[root@bigdata kafka]# ./bin/kafka-server-start.sh -daemon ./config/server2.properties
[root@bigdata kafka]# ./bin/kafka-server-start.sh -daemon ./config/server3.properties
[root@bigdata kafka]# jps
10131 Kafka
10611 Kafka
10389 Kafka
10693 Jps

6. 創(chuàng)建 Topic

# 創(chuàng)建Topic t1
[root@bigdata kafka]# ./bin/kafka-topics.sh --create --zookeeper bigdata:2181 --replication-factor 1 --partitions 1 --topic t1
Created topic "t1".

# 查看Topic列表(list)
[root@bigdata kafka]# ./bin/kafka-topics.sh --list --zookeeper bigdata:2181
t1

# 查看指定Topic信息(describe)
[root@bigdata kafka]# ./bin/kafka-topics.sh --describe --zookeeper bigdata:2181 --topic t1
Topic:t1	PartitionCount:1	ReplicationFactor:1	Configs:
	Topic: t1	Partition: 0	Leader: 1	Replicas: 1	Isr: 1

7. 測(cè)試生產(chǎn)和消費(fèi)消息

  1. 打開生產(chǎn)者客戶端并發(fā)送消息
[root@bigdata kafka]# ./bin/kafka-console-producer.sh --broker-list bigdata:9092 --topic t1
hello world  # 輸入 hello world 后回車,即表示已發(fā)送消息
  1. 新打開一個(gè)終端窗口鏈接 bigdata,并啟動(dòng)客戶端接收消息
[root@bigdata kafka]# ./bin/kafka-console-consumer.sh --bootstrap-server bigdata:9092 --zookeeper bigdata:2182 --topic t1 --from-beginning
hello world

至此,Kafka 偽分布式集群安裝完成!

2. Kafka 分布式安裝

部署安裝 Kafka 與 ZooKeeper。理論上 Kafka 與 ZooKeeper 不應(yīng)該搭建到一起

1、上傳解壓重命名

tar –zxvf kafka_2.12-2.2.0.tar.gz
mv kafka_2.12-2.2.0 kafka 

2、修改配置

cd /software/kafka/config/
vi server.properties

# 在log.retention.hours=168 后新增下面三項(xiàng)
message.max.byte=5242880
default.replication.factor=1
replica.fetch.max.bytes=5242880

# 設(shè)置zookeeper的連接端口
zookeeper.connect=hadoop0:2181,hadoop1:2181,hadoop2:2181

# 日志文件的目錄,設(shè)置成剛剛創(chuàng)建的logs目錄
log.dirs=/software/kafka/logs/

3、將 kafka 拷貝到集群節(jié)點(diǎn)

scp -r kafka/ root@172.16.15.101:/software/
scp -r kafka/ root@172.16.15.102:/software/

4、修改集群節(jié)點(diǎn) kafka/config/server.properties 中 broker.id 值

cd /software/kafka/config/
vi server.properties
# 每臺(tái)brokerId都不相同,Hadoop1修改broker.id=1,Hadoop2修改broker.id=2
broker.id=0 

5、驗(yàn)證集群

  • 啟動(dòng) Kafka(集群各節(jié)點(diǎn)全部執(zhí)行):
# 啟動(dòng)命令(Kafka目錄下):
./bin/kafka-server-start.sh -daemon ./config/server.properties
# 執(zhí)行jps會(huì)打印kafka進(jìn)程
[root@hadoop0 kafka]# jps
18295 Kafka
19086 Jps
# 或使用ps -ef | grep kafka 也可以查到

# 停止命令(Kafka目錄下):
./bin/kafka-server-stop.sh

3. Kafka監(jiān)控軟件 Kafka-manager

1. Kafka-manager 功能介紹
  • 管理多個(gè) Kafka 集群
  • 便捷的檢查 Kafka 集群狀態(tài)(topic,broker,備份分布情況,分區(qū)分布情況)
  • 選擇要運(yùn)行的副本
  • 基于當(dāng)前分區(qū)狀況進(jìn)行
  • 可以選擇 topic 配置并創(chuàng)建 topic(0.8.1.1 和 0.8.2 的配置不同)
  • 刪除 topic(只支持 0.8.2 以上的版本并且要在 broker 配置中設(shè)置 delete.topic.enable=true
  • Topic list 會(huì)指明哪些 topic 被刪除(0.8.2 以上版本使用)
  • 為已存在的 topic 增加分區(qū)
  • 為已存在的 topic 更新配置
  • 在多個(gè) topic 上批量重分區(qū)
  • 在多個(gè) topic 上批量重分區(qū)(可選 partition broker 位置)
2. Kafka-manager 安裝

將 kafka-manager-1.3.3.7.zip 安裝包導(dǎo)入Hadoop0:/software/ 下進(jìn)行解壓:

[root@hadoop0 software]# unzip kafka-manager-1.3.3.7.zip -d .

修改配置:

[root@hadoop0 software]# cd kafka-manager-1.3.3.7/
[root@hadoop0 kafka-manager-1.3.3.7]# vim conf/application.conf
# 注釋下面一行行,添加第二行
# kafka-manager.zkhosts="localhost:2181"
kafka-manager.zkhosts="172.16.15.100:2181,172.16.15.101:2181,172.16.15.102:2181"

啟動(dòng):

# Kafka-manager目錄下:
# 方式一:按默認(rèn)方式啟動(dòng),默認(rèn)端口為9000
bin/kafka-manager
# 方式二:指定配置文件位置和啟動(dòng)端口號(hào):
# 可通過 -Dconfig.file=conf/application.conf 指定配置文件; -Dhttp.port 指定端口
nohup bin/kafka-manager -Dconfig.file=conf/application.conf -Dhttp.port=8080 &

[root@hadoop0 kafka-manager-1.3.3.7]# bin/kafka-manager
15:03:48,422 |-INFO in ch.qos.logback.classic.LoggerContext[default] - Could NOT find resource [logback.groovy]
15:03:48,422 |-INFO in ch.qos.logback.classic.LoggerContext[default] - Could NOT find resource [logback-test.xml]
...
[info] play.api.Play - Application started (Prod)
[info] p.c.s.NettyServer - Listening for HTTP on /0:0:0:0:0:0:0:0:9000
[info] k.m.a.KafkaManagerActor - Updating internal state...
[info] k.m.a.KafkaManagerActor - Updating internal state...
# 以下頁(yè)面的操作完成后,使用 Ctrl+C 退出

這樣就說明kafka_manager服務(wù)端口已經(jīng)監(jiān)聽啦,我們可以直接去訪問kafka-manager的web UI頁(yè)面了:

172.16.15.100:9000  # 默認(rèn)端口 9000

kafka安裝包,大數(shù)據(jù)工具安裝,kafka,大數(shù)據(jù),分布式,Kafka-manager

  • 可以在當(dāng)前目錄下看到新生成了RUNNING_PID文件:
[root@hadoop0 kafka-manager-1.3.3.7]# ll
總用量 28
drwxr-xr-x 3 root root   18 114 22:47 application.home_IS_UNDEFINED
drwxr-xr-x 2 root root   52 114 22:37 bin
drwxr-xr-x 2 root root  136 114 23:56 conf
drwxr-xr-x 2 root root 8192 114 22:37 lib
-rw------- 1 root root   98 114 23:44 nohup.out
-rw-r--r-- 1 root root 6335 65 2017 README.md
-rw-r--r-- 1 root root    5 115 00:02 RUNNING_PID  # this one!
drwxr-xr-x 3 root root   17 114 22:37 share
3. Kafka-manager 使用

1. 創(chuàng)建集群

  • 點(diǎn)擊【Cluster】,選擇【Add Cluster】添加集群

kafka安裝包,大數(shù)據(jù)工具安裝,kafka,大數(shù)據(jù),分布式,Kafka-manager

  • 填寫 zk 集群的各機(jī)器 ip 與端口,選擇 kafka 版本(盡量選擇版本比較低的,相對(duì)穩(wěn)定一些),下邊默認(rèn)為 1 的輸入框輸入 3(大于等于 2)即可:

kafka安裝包,大數(shù)據(jù)工具安裝,kafka,大數(shù)據(jù),分布式,Kafka-manager

  • 注意:如果沒有在 Kafka 中配置過 JMX_PORT,千萬(wàn)不要選擇第一個(gè)復(fù)選框:Enable JMX Polling。如果選擇了該復(fù)選框,Kafka-manager 可能會(huì)無(wú)法啟動(dòng)。

  • 保存之后,就可以看到詳細(xì)的信息了:

kafka安裝包,大數(shù)據(jù)工具安裝,kafka,大數(shù)據(jù),分布式,Kafka-manager

  • 選擇集群列表即可看到剛才創(chuàng)建的 Kafka 集群了:

kafka安裝包,大數(shù)據(jù)工具安裝,kafka,大數(shù)據(jù),分布式,Kafka-manager

  • 可以修改(modify)禁用(disable)

2. 創(chuàng)建主題

  • 頂部菜單欄選擇【Topic】,點(diǎn)擊【Create】,填寫名稱、分區(qū)、副本:

kafka安裝包,大數(shù)據(jù)工具安裝,kafka,大數(shù)據(jù),分布式,Kafka-manager

  • 圖解:

kafka安裝包,大數(shù)據(jù)工具安裝,kafka,大數(shù)據(jù),分布式,Kafka-manager

說明:

  • 在上圖的一個(gè) Kafka 集群中,有兩個(gè)服務(wù)器,每個(gè)服務(wù)器上都有 2 個(gè)分區(qū)。P0、P3 可能屬于同一個(gè)主題,也可能是兩個(gè)不同的主題;
  • 如果設(shè)置的 Partitions 和 Replication Factor 都是 2,這種情況下該主題的分布就和上圖中 Kafka 集群顯示的相同,此時(shí),P0、P3 是同一個(gè)主題的兩個(gè)分區(qū);P1、P2 也是同一個(gè)主題的兩個(gè)分區(qū),Server1、Server2 其中一個(gè)會(huì)作為 Leader 進(jìn)行讀寫操作,另一個(gè)通過復(fù)制進(jìn)行同步;
  • 如果設(shè)置的 Partitions 和 Replication Factor 都是 1,則只會(huì)根據(jù)算法在某個(gè) Server 上創(chuàng)建一個(gè)分區(qū),可以是 P0~P4 中的某一個(gè)(分區(qū)都是新建的,不是先存在 4 個(gè)然后從中取 1)

創(chuàng)建完成即可看到:

kafka安裝包,大數(shù)據(jù)工具安裝,kafka,大數(shù)據(jù),分布式,Kafka-manager

  • 點(diǎn)擊詳細(xì)內(nèi)容:

kafka安裝包,大數(shù)據(jù)工具安裝,kafka,大數(shù)據(jù),分布式,Kafka-manager文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-619466.html

到了這里,關(guān)于【大數(shù)據(jù)工具】Kafka偽分布式、分布式安裝和Kafka-manager工具安裝與使用的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 大數(shù)據(jù) | 實(shí)驗(yàn)零:安裝 Hadoop 偽分布式系統(tǒng)

    大數(shù)據(jù) | 實(shí)驗(yàn)零:安裝 Hadoop 偽分布式系統(tǒng)

    ?? 前言 :本篇是個(gè)人配置環(huán)境的總結(jié),基于指導(dǎo)書,補(bǔ)充了許多在配置過程中出現(xiàn)的問題的解決細(xì)節(jié)。希望能幫到你??。 Vmware workstation pro 16 Ubuntu 20.04 JDK 1.8 Hadoop 3.2.2 下邊資源是本篇博客會(huì)用到的相關(guān)文件 (建議直接下載,相關(guān)代碼直接對(duì)應(yīng)的下述文件, 下載完先不要?jiǎng)?/p>

    2023年04月17日
    瀏覽(15)
  • 結(jié)合云計(jì)算的最新技術(shù)和現(xiàn)狀,介紹云計(jì)算基礎(chǔ)知識(shí)、開源分布式數(shù)據(jù)庫(kù)Clickhouse、可視化數(shù)據(jù)分析工具、分布式鏈路跟蹤系統(tǒng)Pinpoint、數(shù)據(jù)湖存儲(chǔ)系統(tǒng)Pulsar等

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) 2019年,“云計(jì)算”將成為“經(jīng)濟(jì)全球化”的熱門詞匯之一,2020年全球云計(jì)算市場(chǎng)規(guī)模預(yù)計(jì)達(dá)到1萬(wàn)億美元。中國(guó)是繼美國(guó)、英國(guó)之后,成為全球第四大云服務(wù)提供商。華為、騰訊、阿里巴巴等互聯(lián)網(wǎng)巨頭紛紛布局云計(jì)算領(lǐng)域,各家公司紛紛推出

    2024年02月08日
    瀏覽(29)
  • 【分布式技術(shù)】消息隊(duì)列Kafka

    【分布式技術(shù)】消息隊(duì)列Kafka

    目錄 一、Kafka概述 二、消息隊(duì)列Kafka的好處 三、消息隊(duì)列Kafka的兩種模式 四、Kafka 1、Kafka 定義 2、Kafka 簡(jiǎn)介 3、Kafka 的特性 五、Kafka的系統(tǒng)架構(gòu) 六、實(shí)操部署Kafka集群 ?步驟一:在每一個(gè)zookeeper節(jié)點(diǎn)上完成kafka部署 ?編輯 步驟二:傳給其他節(jié)點(diǎn) 步驟三:?jiǎn)?dòng)3個(gè)節(jié)點(diǎn) kafka管理

    2024年01月23日
    瀏覽(27)
  • Apache SeaTunnel:新一代高性能、分布式、海量數(shù)據(jù)集成工具從入門到實(shí)踐

    Apache SeaTunnel:新一代高性能、分布式、海量數(shù)據(jù)集成工具從入門到實(shí)踐

    Apache SeaTunnel 原名 Waterdrop,在 2021 年 10 月更名為 SeaTunnel 并申請(qǐng)加入 Apache孵化器。目前 Apache SeaTunnel 已發(fā)布 40+個(gè)版本,并在大量企業(yè)生產(chǎn)實(shí)踐中使用,包括 J.P.Morgan、字節(jié)跳動(dòng)、Stey、中國(guó)移動(dòng)、富士康、騰訊云、國(guó)雙、中科大數(shù)據(jù)研究院、360、Shoppe、Bilibili、新浪、搜狗、唯

    2024年02月03日
    瀏覽(24)
  • 【分布式應(yīng)用】kafka集群、Filebeat+Kafka+ELK搭建

    【分布式應(yīng)用】kafka集群、Filebeat+Kafka+ELK搭建

    主要原因是由于在高并發(fā)環(huán)境下,同步請(qǐng)求來(lái)不及處理,請(qǐng)求往往會(huì)發(fā)生阻塞。比如大量的請(qǐng)求并發(fā)訪問數(shù)據(jù)庫(kù),導(dǎo)致行鎖表鎖,最后請(qǐng)求線程會(huì)堆積過多,從而觸發(fā) too many connection 錯(cuò)誤,引發(fā)雪崩效應(yīng)。 我們使用消息隊(duì)列,通過異步處理請(qǐng)求,從而緩解系統(tǒng)的壓力。消息隊(duì)

    2024年02月16日
    瀏覽(96)
  • 分布式應(yīng)用之Zookeeper和Kafka

    分布式應(yīng)用之Zookeeper和Kafka

    1.定義 2.特點(diǎn) 3.數(shù)據(jù)結(jié)構(gòu) 4.選舉機(jī)制 第一次選舉 非第一次選舉 5.部署 1.概念 中間件是一種獨(dú)立的系統(tǒng)軟件或服務(wù)程序,分布式應(yīng)用軟件借助這種軟件在不同的技術(shù)之間共享資源。 2.消息隊(duì)列型 3.Web應(yīng)用型(代理服務(wù)器) 1.為什么需要MQ 2.消息隊(duì)列作用 3.消息隊(duì)列模式 ①點(diǎn)對(duì)

    2024年02月15日
    瀏覽(25)
  • 分布式數(shù)據(jù)庫(kù)·Hive和MySQL的安裝與配置

    分布式數(shù)據(jù)庫(kù)·Hive和MySQL的安裝與配置

    一、版本要求:Hadoop:hadoop-2.10.1、MySQL:mysql-8.0.35、 HIVE :apache-hive-3.1.2、MySQL驅(qū)動(dòng):mysql-connector-java-5.1.49 安裝包網(wǎng)盤鏈接:阿里云盤分享 安裝位置? Hive:master、MySQL:slave1 二、卸載已安裝的MySQL(如果不符合需求) 1.關(guān)閉MySQL服務(wù) 2.Yum檢查 3.安裝則直接刪除 4.rpm檢查 5.如果存在則刪

    2024年02月03日
    瀏覽(26)
  • 分布式 - 消息隊(duì)列Kafka:Kafka 消費(fèi)者的消費(fèi)位移

    分布式 - 消息隊(duì)列Kafka:Kafka 消費(fèi)者的消費(fèi)位移

    01. Kafka 分區(qū)位移 對(duì)于Kafka中的分區(qū)而言,它的每條消息都有唯一的offset,用來(lái)表示消息在分區(qū)中對(duì)應(yīng)的位置。偏移量從0開始,每個(gè)新消息的偏移量比前一個(gè)消息的偏移量大1。 每條消息在分區(qū)中的位置信息由一個(gè)叫位移(Offset)的數(shù)據(jù)來(lái)表征。分區(qū)位移總是從 0 開始,假設(shè)一

    2024年02月12日
    瀏覽(27)
  • golang分布式中間件之kafka

    Kafka是一個(gè)分布式發(fā)布-訂閱消息系統(tǒng),由LinkedIn公司開發(fā)。它被設(shè)計(jì)為快速、可靠且具有高吞吐量的數(shù)據(jù)流平臺(tái),旨在處理大量的實(shí)時(shí)數(shù)據(jù)。Kafka的架構(gòu)是基于發(fā)布-訂閱模型構(gòu)建的,可以支持多個(gè)生產(chǎn)者和消費(fèi)者。 在本文中,我們將討論如何使用Go語(yǔ)言來(lái)實(shí)現(xiàn)Kafka分布式中間件

    2024年02月07日
    瀏覽(26)
  • 【新星計(jì)劃】Kafka分布式發(fā)布訂閱消息系統(tǒng)

    【新星計(jì)劃】Kafka分布式發(fā)布訂閱消息系統(tǒng)

    ? 目錄 Kafka分布式發(fā)布訂閱消息系統(tǒng) 1. 概述 1.1 點(diǎn)對(duì)點(diǎn)消息傳遞模式 1.2 發(fā)布-訂閱消息傳遞模式 1.3 Kafka特點(diǎn) 1.4 kafka拓?fù)鋱D 2. Kafka工作原理 2.1 Kafka核心組件介紹 2.2 Kafka工作流程分析 2.2.1 生產(chǎn)者生產(chǎn)消息過程 2.2.2 消費(fèi)者消費(fèi)消息過程 2.2.3 Kafka Topics 2.2.4 Kafka Partition 2.2.4 Kafka

    2024年02月08日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包