国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

jdk+zookeeper+kafka 搭建kafka集群

這篇具有很好參考價(jià)值的文章主要介紹了jdk+zookeeper+kafka 搭建kafka集群。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

環(huán)境準(zhǔn)備

環(huán)境資源包:
jdk-8u341-linux-x64.tar.gz
kafka_2.12-2.2.0.tgz
zookeeper-3.4.14.tar.gz

server-id ip 狀態(tài)
server1 10.206.120.10 leader
server2 10.206.120.2 follower
server3 10.206.120.3 follower

一、安裝jdk

因?yàn)閗afka需要Java環(huán)境,所以優(yōu)先配置jdk環(huán)境,若已經(jīng)配置了java環(huán)境,此步驟可以忽略

[root@VM-120-2-centos ~]# tar -xvf jdk-8u341-linux-x64.tar.gz 
[root@VM-120-2-centos ~]# mv jdk1.8.0_341/ /usr/local/
#在文件末尾加入以下語句
[root@VM-120-2-centos ~]# vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.8.0_341
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib

[root@VM-120-2-centos ~]# source /etc/profile
[root@VM-120-2-centos ~]# java -version
java version "1.8.0_341"
Java(TM) SE Runtime Environment (build 1.8.0_341-b10)
Java HotSpot(TM) 64-Bit Server VM (build 25.341-b10, mixed mode)
至此jdk環(huán)境配置完成

二、zookeeper集群安裝

[root@VM-120-2-centos ~]#  cd 
[root@VM-120-2-centos ~]# tar -xvf zookeeper-3.4.14.tar.gz 
[root@VM-120-2-centos ~]# mv zookeeper-3.4.14 /usr/local/zookeeper
[root@VM-120-2-centos ~]# cd /usr/local/zookeeper/conf/
[root@VM-120-2-centos ~]# cp zoo_sample.cfg zoo.cfg
[root@VM-120-2-centos ~]# vim zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataLogDir=/usr/local/zookeeper/logs
dataDir=/usr/local/zookeeper/data
clientPort=2181
autopurge.snapRetainCount=500
autopurge.purgeInterval=24
server.1= 10.206.120.10:2888:3888
server.2= 10.206.120.2:2888:3888
server.3= 10.206.120.2:2888:3888
[root@VM-120-2-centos ~]# mkdir /usr/local/zookeeper/data
#10.206.120.10服務(wù)器上執(zhí)行
[root@VM-120-2-centos ~]# echo "1" > /usr/local/zookeeper/data/myid 

#10.206.120.2服務(wù)器上執(zhí)行       
[root@VM-120-2-centos ~]# echo "2" > /usr/local/zookeeper/data/myid

#10.206.120.3服務(wù)器上執(zhí)行       
[root@VM-120-2-centos ~]# echo "3" > /usr/local/zookeeper/data/myid
[root@VM-120-2-centos ~]# cd ../bin/
[root@VM-120-2-centos ~]# ./zkServer.sh start
[root@VM-120-2-centos ~]# ./zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: leader
[root@VM-120-2-centos ~]# netstat -ntlp
看看端口是否正常啟動

二、kafka集群安裝

[root@VM-120-2-centos ~]# cd 
[root@VM-120-2-centos ~]# tar -xvf kafka_2.12-2.2.0.tgz 
[root@VM-120-2-centos ~]# mv kafka_2.12-2.2.0 /usr/local/kafka
[root@VM-120-2-centos ~]# cd /usr/local/kafka/config/
[root@VM-120-2-centos ~]# cp server.properties server.properties.bak
#10.206.120.2服務(wù)器上將以下內(nèi)容寫入文件
[root@VM-120-2-centos ~]# vim server.properties
broker.id=2
listeners=PLAINTEXT://10.206.120.2:9092
advertised.listeners=PLAINTEXT://43.137.8.225:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=204857600
log.dirs=/usr/local/kafka/logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=1680
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=10.206.120.2:2181,10.206.120.10:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=10
max.poll.interval.ms=800000
max.poll.records=50

#10.206.120.10服務(wù)器上將以下內(nèi)容寫入文件
[root@VM-120-2-centos ~]# vim server.properties
broker.id=1
listeners=PLAINTEXT://10.206.120.10:9092
advertised.listeners=PLAINTEXT://118.195.137.101:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=204857600
log.dirs=/usr/local/kafka/logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=1680
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=10.206.120.2:2181,10.206.120.10:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=10
max.poll.interval.ms=800000
max.poll.records=50

#10.206.120.3服務(wù)器上將以下內(nèi)容寫入文件
[root@VM-120-2-centos ~]# vim server.properties
broker.id=3
listeners=PLAINTEXT://10.206.120.3:9092
advertised.listeners=PLAINTEXT://175.27.146.204:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=204857600
log.dirs=/usr/local/kafka/logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=1680
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=10.206.120.2:2181,10.206.120.10:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=10
max.poll.interval.ms=800000
max.poll.records=50

[root@VM-120-2-centos ~]# cd ../bin/
[root@VM-120-2-centos ~]# nohup ./kafka-server-start.sh ../config/server.properties &

#查看9092端口是否啟動,啟動即為正常
[root@VM-120-10-centos bin]# netstat -ntlp  
#下面所有命令在kafka的bin目錄下執(zhí)行(筆者是/usr/local/kafka/bin)
#創(chuàng)建topic話題
./kafka-topics.sh --create --bootstrap-server 10.206.120.10:2181,10.206.120.2:2181,10.206.120.3:2181 --replication-factor 3 --topic test --partitions 3
#開啟一個(gè)生產(chǎn)者
./kafka-console-producer.sh --broker-list 10.206.120.10:2181,10.206.120.2:2181,10.206.120.3:2181 --topic test
#開啟一個(gè)消費(fèi)者
./kafka-console-consumer.sh --bootstrap-server 10.206.120.10:2181,10.206.120.2:2181,10.206.120.3:2181 --topic test --from-beginning
#列出所有topic
./kafka-topics.sh --zookeeper 10.206.120.10:2181,10.206.120.2:2181,10.206.120.3:2181 -list
#輸出某個(gè)topic
./kafka-topics.sh --zookeeper 10.206.120.10:2181,10.206.120.2:2181,10.206.120.3:2181 --delete --topic test
#詳細(xì)描述某個(gè)topic
./kafka-topics.sh --zookeeper 10.206.120.10:2181,10.206.120.2:2181,10.206.120.3:2181 --describe --topic test

jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper
jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper
至此集群搭建成功,可以正常使用了

四、測試

外網(wǎng)測試

#1、上傳測試壓縮包并解壓如下圖1
#2、更改application.yml將ip更改為集群主機(jī)的外網(wǎng)ip
spring:
  application:
    name: kafka-tester
  kafka:
    bootstrap-servers:
      - 10.206.120.3:9092
      - 10.206.120.2:9092
      - 10.206.120.10:9092
    producer:
      topic: test
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
    consumer:
      topic: test
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer

#3、 后臺啟動kafka測試包
nohup ./test.sh &

#4、開啟一個(gè)消費(fèi)者,查看jar包生產(chǎn)結(jié)果圖2(說明kafka-test.jar包啟動正常,kafka集群工作正常)
/usr/local/kafka/bin/kafka-console-consumer.sh --bootstrap-server 175.27.146.204:9092,118.195.137.101:9092,43.137.8.225:9092 --topic test --from-beginning

#5、查看consumer_offsets只有一個(gè)副本數(shù)圖三
/usr/local/kafka/bin/kafka-topics.sh --zookeeper 175.27.146.204:2181,118.195.137.101:2181,43.137.8.225:2181 --describe --topic __consumer_offsets





jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper
jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper
jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper

將集群中的一個(gè)follower關(guān)機(jī),模擬服務(wù)器宕機(jī)
結(jié)果發(fā)現(xiàn)消息隊(duì)列出現(xiàn)問題(kafka集群不可用)
jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper
將服務(wù)器啟動,并將zookeeper和kafka集群啟動,此時(shí)集群才正常
jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper

故當(dāng)__consumer_offsets副本數(shù)設(shè)置為1時(shí),若服務(wù)器宕機(jī)了,則kafka集群無法正常使用,服務(wù)器啟動,并將zookeeper和kafka集群啟動,此時(shí)集群才正常

解決方案

1.修改系統(tǒng)_offsets副本數(shù)為3
修改kafka的核心配置文件server.properties
num.partitions參數(shù)(默認(rèn)為1)修改為3,
offsets.topic.replication.factor=3(默認(rèn)為1)
另外需要添加auto.create.topics.enable=true
jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper

由于__consumer_offsets是kafka默認(rèn)的主題,無法刪除,我們可以刪除zookeeper中的__consumer_offsets。
進(jìn)入zookeeper/bin目錄執(zhí)行./zkCli.sh
ls /broksers/topics
rmr /brokers/topics/__consumer_offsets
ls /broksers/topics
jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper

先將集群停掉
在重新啟動zookeeper和kafka
再次查看__consumer_offsets。發(fā)現(xiàn)副本數(shù)已經(jīng)是3
jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper
將集群中的一個(gè)follower關(guān)機(jī),模擬服務(wù)器宕機(jī)
消費(fèi)隊(duì)列正常
jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper

cd /usr/local/zookeeper/bin/
./zkServer.sh start

cd /usr/local/kafka/bin/
nohup ./kafka-server-start.sh …/config/server.properties &

./kafka-topics.sh --zookeeper 175.27.146.204:2181,118.195.137.101:2181,43.137.8.225:2181 --describe --topic __consumer_offsets

jdk+zookeeper+kafka 搭建kafka集群,java-zookeeper,java,zookeeper文章來源地址http://www.zghlxwxcb.cn/news/detail-758648.html

到了這里,關(guān)于jdk+zookeeper+kafka 搭建kafka集群的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • zookeeper + kafka集群搭建詳解

    2023年04月11日
    瀏覽(18)
  • Docker 搭建 zookeeper、kafka 集群

    Docker 搭建 zookeeper、kafka 集群

    首先創(chuàng)建一個(gè)自定義網(wǎng)絡(luò),后續(xù)的所有容器都放入同一個(gè)內(nèi)網(wǎng)中,容器之間還可以通過容器名稱進(jìn)行直接訪問,在后續(xù)的配置中只需要寫明容器名稱即可,會自動找到對應(yīng)的IP地址,防止重啟容器后IP地址發(fā)生變化時(shí),還要去修改配置文件的操作 創(chuàng)建目錄 啟動zookeeper 進(jìn)入zo

    2024年02月10日
    瀏覽(24)
  • kafka3.4.0集群搭建(無zookeeper)

    kafka3.4.0集群搭建(無zookeeper)

    注意:低版本需要安裝zookeeper,在2.8及以上可移除zookeeper 前往官網(wǎng)下載 !?。〔灰螺dsrc文件 1.解壓文件 tar xzf kafka_2.13-3.4.0.tgz 進(jìn)入文件 cd kafka_2.13-3.4.0 進(jìn)入 cd config/kraft 2.修改server.properties以下屬性 vim server.properties 3.我們需要在啟動服務(wù)器之前創(chuàng)建kafka集群id。執(zhí)行下列命令

    2024年02月03日
    瀏覽(25)
  • 基于Zookeeper搭建Kafka高可用集群(實(shí)踐可用)

    基于Zookeeper搭建Kafka高可用集群(實(shí)踐可用)

    目錄 一、Zookeeper集群搭建 1.1?下載??解壓 1.2?修改配置 1.3?標(biāo)識節(jié)點(diǎn) 1.4?啟動集群 1.5?集群驗(yàn)證 二、Kafka集群搭建 2.1?下載解壓 2.2?拷貝配置文件 2.3?修改配置 2.4?啟動集群 2.5?創(chuàng)建測試主題 2.6?寫入數(shù)據(jù)測試 為保證集群高可用,Zookeeper?集群的節(jié)點(diǎn)數(shù)最好是奇數(shù),最少有

    2024年02月09日
    瀏覽(21)
  • Zookeeper和kafka集群搭建步驟(超詳細(xì),易理解)

    目錄 1.修改文件名 2.修改zoo.cfg配置文件內(nèi)容 (1)找到#maxClientCnxns=60命令在下面添加 3.進(jìn)入/tmp目錄 (1)創(chuàng)建zookeeper目錄 (2)進(jìn)入zookeeper目錄中創(chuàng)建myid文件,添加? \\\'? 1? \\\';

    2024年02月15日
    瀏覽(22)
  • 【運(yùn)維】Kafka高可用: KRaft(不依賴zookeeper)集群搭建

    【運(yùn)維】Kafka高可用: KRaft(不依賴zookeeper)集群搭建

    本文主要介紹了 kafka raft集群架構(gòu): 與舊架構(gòu)的不同點(diǎn),有哪些優(yōu)勢,哪些問題 架構(gòu)成員有哪些,怎么規(guī)劃。 三節(jié)點(diǎn)集群安裝、啟動與測試 在舊的架構(gòu)中 Kafka集群包含 多個(gè)broker節(jié)點(diǎn)和一個(gè)ZooKeeper 集群 。如上圖集群結(jié)構(gòu):4個(gè)broker節(jié)點(diǎn)和3個(gè)ZooKeeper節(jié)點(diǎn)。Kafka 集群的controller在

    2024年02月03日
    瀏覽(32)
  • CentOS7中新版本自帶zookeeper搭建Kafka集群

    CentOS7中新版本自帶zookeeper搭建Kafka集群

    一、zookeeper在kafka中的具體作用 ? ? 它是一個(gè)分布式協(xié)調(diào)框架。很好的將消息生產(chǎn)、消息存儲、消息消費(fèi)的過程結(jié)合在一起。在典型的Kafka集群中,Kafka通過Zookeeper管理集群控制,選舉leader,以及在Consumer Group發(fā)生變化時(shí)進(jìn)行rebalance。Producer使用push模式將消息發(fā)布到broker,Con

    2024年02月08日
    瀏覽(38)
  • ZooKeeper+Kafka+ELK+Filebeat集群搭建實(shí)現(xiàn)大批量日志收集和展示

    ZooKeeper+Kafka+ELK+Filebeat集群搭建實(shí)現(xiàn)大批量日志收集和展示

    大致流程:將nginx 服務(wù)器(web-filebeat)的日志通過filebeat收集之后,存儲到緩存服務(wù)器kafka,之后logstash到kafka服務(wù)器上取出相應(yīng)日志,經(jīng)過處理后寫入到elasticsearch服務(wù)器并在kibana上展示。 一、集群環(huán)境準(zhǔn)備 二、搭建zookeeper集群 前提條件:三臺機(jī)器分別修改時(shí)區(qū)、關(guān)閉防火墻

    2024年02月04日
    瀏覽(25)
  • Linux-一篇文章,速通Hadoop集群之偽分布式,完全分布式,高可用搭建(附zookeeper,jdk介紹與安裝)。

    Linux-一篇文章,速通Hadoop集群之偽分布式,完全分布式,高可用搭建(附zookeeper,jdk介紹與安裝)。

    文章較長,附目錄,此次安裝是在VM虛擬環(huán)境下進(jìn)行。文章第一節(jié)主要是介紹Hadoop與Hadoop生態(tài)圈并了解Hadoop三種集群的區(qū)別,第二節(jié)和大家一起下載,配置Linux三種集群以及大數(shù)據(jù)相關(guān)所需的jdk,zookeeper,只需安裝配置的朋友可以直接跳到文章第二節(jié)。同時(shí),希望我的文章能幫

    2024年03月19日
    瀏覽(28)
  • Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive 完全分布式高可用集群搭建(保姆級超詳細(xì)含圖文)

    Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive 完全分布式高可用集群搭建(保姆級超詳細(xì)含圖文)

    說明: 本篇將詳細(xì)介紹用二進(jìn)制安裝包部署hadoop等組件,注意事項(xiàng),各組件的使用,常用的一些命令,以及在部署中遇到的問題解決思路等等,都將詳細(xì)介紹。 ip hostname 192.168.1.11 node1 192.168.1.12 node2 192.168.1.13 node3 1.2.1系統(tǒng)版本 1.2.2內(nèi)存建議最少4g、2cpu、50G以上的磁盤容量 本次

    2024年02月12日
    瀏覽(38)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包