国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

ansible部署zookeeper和kafka集群

這篇具有很好參考價值的文章主要介紹了ansible部署zookeeper和kafka集群。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

節(jié)點 IP
ansible 192.168.200.75
node1 192.168.200.76
node2 192.168.200.77
node3 192.168.200.78

基礎環(huán)境準備

基礎環(huán)境配置就不過多贅述了
主機名、主機解析、免密訪問、ansible下載、配置ansible主機、防火墻、selinux、配置centos2009鏡像、配置ftp遠程。均已配置

配置ansible文件(zookeeper)

在ansible節(jié)點的/root目錄下創(chuàng)建example目錄,作為Ansible工作目錄,并創(chuàng)建cscc_install.yml文件作為部署的入口文件,編寫如下內容:

[root@ansible ~]# mkdir example
[root@ansible ~]# cd example/
[root@ansible example]# mkdir -p myid/{myid1,myid2,myid3}
[root@ansible example]# echo "1" > myid/myid1/myid
[root@ansible example]# echo "2" > myid/myid2/myid
[root@ansible example]# echo "3" > myid/myid3/myid
[root@ansible example]# cat ftp.repo
[gpmall-repo]
name=gpmall
baseurl=ftp://ansible/gpmall-repo
gpgcheck=0
enabled=1
[centos]
name=centos
baseurl=ftp://ansible/centos
gpgcheck=0
enabled=1

[root@ansible example]# cat zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/tmp/zookeeper
clientPort=2181
server.1=192.168.200.76:2888:3888
server.2=192.168.200.77:2888:3888
server.3=192.168.200.78:2888:3888

[root@ansible example]# cat cscc_install.yml
---
- hosts: all
  remote_user: root
  tasks:
    - name: rm repo
      shell: rm -rf /etc/yum.repos.d/*
    - name: copy repo
      copy: src=ftp.repo dest=/etc/yum.repos.d/
    - name: install java
      shell: yum -y install java-1.8.0-*
    - name: copy zookeeper
      copy: src=zookeeper-3.4.14.tar.gz dest=/root/zookeeper-3.4.14.tar.gz
    - name: tar-zookeeper
      shell: tar -zxvf zookeeper-3.4.14.tar.gz
    - name: copy zoo.cfg
      copy: src=zoo.cfg dest=/root/zookeeper-3.4.14/conf/zoo.cfg
    - name: mkdir
      shell: mkdir -p /tmp/zookeeper
- hosts: node1
  remote_user: root
  tasks:
    - name: copy myid1
      copy: src=myid/myid1/myid dest=/tmp/zookeeper/myid
- hosts: node2
  remote_user: root
  tasks:
    - name: copy myid2
      copy: src=myid/myid2/myid dest=/tmp/zookeeper/myid
- hosts: node3
  remote_user: root
  tasks:
    - name: copy myid3
      copy: src=myid/myid3/myid dest=/tmp/zookeeper/myid
- hosts: all
  remote_user: root
  tasks:
    - name: start zookerper
      shell: /root/zookeeper-3.4.14/bin/zkServer.sh start

[root@ansible example]# ls
cscc_install.yml  ftp.repo  myid  zoo.cfg  zookeeper-3.4.14.tar.gz

檢查劇本

[root@ansible example]# ansible-playbook  --syntax-check cscc_install.yml

playbook: cscc_install.yml

[root@ansible example]# ansible-playbook cscc_install.yml

PLAY [all] *************************************************************************************************************
TASK [Gathering Facts] *************************************************************************************************
ok: [192.168.200.77]
ok: [192.168.200.78]
ok: [192.168.200.76]

TASK [rm repo] *********************************************************************************************************
[WARNING]: Consider using the file module with state=absent rather than running 'rm'.  If you need to use command
because file is insufficient you can add 'warn: false' to this command task or set 'command_warnings=False' in
ansible.cfg to get rid of this message.
changed: [192.168.200.77]
changed: [192.168.200.78]
changed: [192.168.200.76]

TASK [copy repo] *******************************************************************************************************
changed: [192.168.200.76]
changed: [192.168.200.78]
changed: [192.168.200.77]

TASK [install java] ****************************************************************************************************
[WARNING]: Consider using the yum module rather than running 'yum'.  If you need to use command because yum is
insufficient you can add 'warn: false' to this command task or set 'command_warnings=False' in ansible.cfg to get rid
of this message.
changed: [192.168.200.77]
changed: [192.168.200.76]
changed: [192.168.200.78]

TASK [copy zookeeper] **************************************************************************************************
changed: [192.168.200.76]
changed: [192.168.200.78]
changed: [192.168.200.77]

TASK [tar-zookeeper] ***************************************************************************************************
[WARNING]: Consider using the unarchive module rather than running 'tar'.  If you need to use command because unarchive
is insufficient you can add 'warn: false' to this command task or set 'command_warnings=False' in ansible.cfg to get
rid of this message.
changed: [192.168.200.78]
changed: [192.168.200.76]
changed: [192.168.200.77]

TASK [copy zoo.cfg] ****************************************************************************************************
changed: [192.168.200.76]
changed: [192.168.200.77]
changed: [192.168.200.78]

TASK [mkdir] ***********************************************************************************************************
[WARNING]: Consider using the file module with state=directory rather than running 'mkdir'.  If you need to use command
because file is insufficient you can add 'warn: false' to this command task or set 'command_warnings=False' in
ansible.cfg to get rid of this message.
changed: [192.168.200.76]
changed: [192.168.200.77]
changed: [192.168.200.78]

PLAY [node1] ***********************************************************************************************************

TASK [Gathering Facts] *************************************************************************************************
ok: [192.168.200.76]

TASK [copy myid1] ******************************************************************************************************
changed: [192.168.200.76]

PLAY [node2] ***********************************************************************************************************

TASK [Gathering Facts] *************************************************************************************************
ok: [192.168.200.77]

TASK [copy myid2] ******************************************************************************************************
changed: [192.168.200.77]

PLAY [node3] ***********************************************************************************************************

TASK [Gathering Facts] *************************************************************************************************
ok: [192.168.200.78]

TASK [copy myid3] ******************************************************************************************************
changed: [192.168.200.78]

PLAY [all] *************************************************************************************************************

TASK [Gathering Facts] *************************************************************************************************
ok: [192.168.200.76]
ok: [192.168.200.77]
ok: [192.168.200.78]

TASK [start zookerper] *************************************************************************************************
changed: [192.168.200.76]
changed: [192.168.200.77]
changed: [192.168.200.78]

PLAY RECAP *************************************************************************************************************
192.168.200.76             : ok=12   changed=9    unreachable=0    failed=0    skipped=0    rescued=0    ignored=0
192.168.200.77             : ok=12   changed=9    unreachable=0    failed=0    skipped=0    rescued=0    ignored=0
192.168.200.78             : ok=12   changed=9    unreachable=0    failed=0    skipped=0    rescued=0    ignored=0

node驗證

[root@node1 ~]# jps
10964 QuorumPeerMain
10997 Jps
[root@node2 ~]# jps
2530 Jps
2475 QuorumPeerMain
[root@node3 ~]# jps
2528 QuorumPeerMain
2586 Jps

配置ansible文件(kafka)

[root@ansible example]# mkdir -p server/{server1,server2,server3}
[root@ansible example]# cat server/server1/server.properties
broker.id=1

num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000

zookeeper.connect=192.168.200.76:2181,192.168.200.77:2181,192.168.200.78:2181
listeners = PLAINTEXT://192.168.200.76:9092

zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0
[root@ansible example]# cat server/server2/server.properties
broker.id=2

num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000

zookeeper.connect=192.168.200.76:2181,192.168.200.77:2181,192.168.200.78:2181
listeners = PLAINTEXT://192.168.200.77:9092

zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0
[root@ansible example]# cat server/server3/server.properties
broker.id=3

num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000

zookeeper.connect=192.168.200.76:2181,192.168.200.77:2181,192.168.200.78:2181
listeners = PLAINTEXT://192.168.200.78:9092

zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0

[root@ansible example]# cat cscc_install_kafka.yml
---
- hosts: all
  remote_user: root
  tasks:
    - name: copy kafka
      copy: src=kafka_2.11-1.1.1.tgz dest=/root/kafka_2.11-1.1.1.tgz
    - name: tar-kafka
      shell: tar -zxvf kafka_2.11-1.1.1.tgz
- hosts: node1
  remote_user: root
  tasks:
    - name: copy server1
      copy: src=server/server1/server.properties dest=/root/kafka_2.11-1.1.1/config
- hosts: node2
  remote_user: root
  tasks:
    - name: copy server2
      copy: src=server/server2/server.properties dest=/root/kafka_2.11-1.1.1/config
- hosts: node3
  remote_user: root
  tasks:
    - name: copy server3
      copy: src=server/server3/server.properties dest=/root/kafka_2.11-1.1.1/config
- hosts: all
  remote_user: root
  tasks:
    - name: copy kafka.sh
      copy: src=start_kafka.sh dest=/root/start_kafka.sh
    - name: start kafka
      shell: bash /root/start_kafka.sh


[root@ansible example]# cat start_kafka.sh
/root/kafka_2.11-1.1.1/bin/kafka-server-start.sh -daemon /root/kafka_2.11-1.1.1/config/server.properties

[root@ansible example]# ls
cscc_install_kafka.yml  ftp.repo              myid    start_kafka.sh  zookeeper-3.4.14.tar.gz
cscc_install.yml        kafka_2.11-1.1.1.tgz  server  zoo.cfg
[root@ansible example]#

檢查劇本并執(zhí)行

[root@ansible example]# ansible-playbook --syntax-check cscc_install_kafka.yml

playbook: cscc_install_kafka.yml

[root@ansible example]# ansible-playbook cscc_install_kafka.yml

PLAY [all] *************************************************************************************************************

TASK [Gathering Facts] *************************************************************************************************
ok: [192.168.200.77]
ok: [192.168.200.76]
ok: [192.168.200.78]

TASK [copy kafka] ******************************************************************************************************
ok: [192.168.200.76]
ok: [192.168.200.78]
ok: [192.168.200.77]

TASK [tar-kafka] *******************************************************************************************************
[WARNING]: Consider using the unarchive module rather than running 'tar'.  If you need to use command because unarchive
is insufficient you can add 'warn: false' to this command task or set 'command_warnings=False' in ansible.cfg to get
rid of this message.
changed: [192.168.200.76]
changed: [192.168.200.78]
changed: [192.168.200.77]

PLAY [node1] ***********************************************************************************************************

TASK [Gathering Facts] *************************************************************************************************
ok: [192.168.200.76]

TASK [copy server1] ****************************************************************************************************
changed: [192.168.200.76]

PLAY [node2] ***********************************************************************************************************

TASK [Gathering Facts] *************************************************************************************************
ok: [192.168.200.77]

TASK [copy server2] ****************************************************************************************************
changed: [192.168.200.77]

PLAY [node3] ***********************************************************************************************************

TASK [Gathering Facts] *************************************************************************************************
ok: [192.168.200.78]

TASK [copy server3] ****************************************************************************************************
changed: [192.168.200.78]

PLAY [all] *************************************************************************************************************

TASK [Gathering Facts] *************************************************************************************************
ok: [192.168.200.76]
ok: [192.168.200.78]
ok: [192.168.200.77]

TASK [start kafka] *****************************************************************************************************
changed: [192.168.200.78]
changed: [192.168.200.77]
changed: [192.168.200.76]

PLAY RECAP *************************************************************************************************************
192.168.200.76             : ok=7    changed=3    unreachable=0    failed=0    skipped=0    rescued=0    ignored=0
192.168.200.77             : ok=7    changed=3    unreachable=0    failed=0    skipped=0    rescued=0    ignored=0
192.168.200.78             : ok=7    changed=3    unreachable=0    failed=0    skipped=0    rescued=0    ignored=0

node驗證

[root@node1 ~]# jps
19057 Jps
10964 QuorumPeerMain
18999 Kafka
[root@node2 ~]# jps
9589 Kafka
2475 QuorumPeerMain
9613 Jps
[root@node3 ~]# jps
2528 QuorumPeerMain
9318 Kafka
9342 Jps

如果要一鍵執(zhí)行只需要把yml文件合并即可文章來源地址http://www.zghlxwxcb.cn/news/detail-701230.html

到了這里,關于ansible部署zookeeper和kafka集群的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • zookeeper集群和kafka的相關概念就部署

    zookeeper集群和kafka的相關概念就部署

    目錄 一、Zookeeper概述 1、Zookeeper 定義 ?2、Zookeeper 工作機制 3、Zookeeper 特點 ?4、Zookeeper 數據結構 ?5、Zookeeper 應用場景 ?(1)統(tǒng)一命名服務 ?(2)統(tǒng)一配置管理 ?(3)統(tǒng)一集群管理 ?(4)服務器動態(tài)上下線 ?(5)軟負載均衡 ?6、Zookeeper選舉機制 (1)第一次啟動選舉機制

    2024年02月14日
    瀏覽(21)
  • Zookeeper、Kafka集群與Filebeat+Kafka+ELK架構、部署實例

    Zookeeper、Kafka集群與Filebeat+Kafka+ELK架構、部署實例

    Zookeeper是一個開源的分布式的,為分布式框架提供協調服務的Apache項目。 Zookeeper:一個領導者(Leader),多個跟隨者(Follower)組成的集群。 Zookeeper集群中只要有半數以上節(jié)點存活,Zookeeper集群就能正常服務。所以Zookeeper適合安裝奇數臺服務器。 全局數據一致:每個Server保

    2024年02月08日
    瀏覽(27)
  • zookeeper+kafka分布式消息隊列集群的部署

    zookeeper+kafka分布式消息隊列集群的部署

    目錄 一、zookeeper 1.Zookeeper 定義 2.Zookeeper 工作機制 3.Zookeeper 特點 4.Zookeeper 數據結構 5.Zookeeper 應用場景 (1)統(tǒng)一命名服務 (2)統(tǒng)一配置管理 (3)統(tǒng)一集群管理 (4)服務器動態(tài)上下線 6.Zookeeper 選舉機制 (1)第一次啟動選舉機制 (2)非第一次啟動選舉機制 7.部署zookeepe

    2024年02月14日
    瀏覽(25)
  • Helm方式部署 zookeeper+kafka 集群 ——2023.05

    Helm方式部署 zookeeper+kafka 集群 ——2023.05

    服務 版本 centos 7.9 kubernetes v1.20.15 helm v3.10.1 zookeeper 3.8.1 kafka 3.4.0 安裝方式有兩種,在線安裝和離線安裝,在線安裝方便快捷,但是無法修改參數。由于需要修改配置,故本文采用離線安裝方式。 2.1 在線安裝zookeeper+kafka集群 1. 部署zookeeper集群 提示: 由于這個ApacheZookeeper集群

    2024年02月09日
    瀏覽(16)
  • kafka 3.5.0集群環(huán)境部署(使用自帶的zookeeper)

    kafka 3.5.0集群環(huán)境部署(使用自帶的zookeeper)

    管理界面包:kafka-manager-1.3.3.7.zip (鏈接) kafka二進制包:kafka_2.13-3.5.0.tgz (鏈接) java包:jdk-8u291-linux-x64.tar.gz (鏈接) 節(jié)點IP broker id 10.10.10.10 0 10.10.10.11 1 10.10.10.12 2 解壓:tar -zxf jdk-8u291-linux-x64.tar.gz 編輯/etc/profile配置文件,文件末尾添加如下配置: 讓配置生效source /etc/profile 查看

    2024年02月07日
    瀏覽(48)
  • 【簡單認識zookeeper+kafka分布式消息隊列集群的部署】

    【簡單認識zookeeper+kafka分布式消息隊列集群的部署】

    Zookeeper是一個開源的分布式的,為分布式框架提供協調服務的Apache項目。 Zookeeper從設計模式角度來理解:是一個基于觀察者模式設計的分布式服務管理框架,它負責存儲和管理大家都關心的數據,然后接受觀察者的注冊,一旦這些數據的狀態(tài)發(fā)生變化,Zookeeper就將負責通知已

    2024年02月13日
    瀏覽(24)
  • 【ELK 使用指南 3】Zookeeper、Kafka集群與Filebeat+Kafka+ELK架構(附部署實例)

    【ELK 使用指南 3】Zookeeper、Kafka集群與Filebeat+Kafka+ELK架構(附部署實例)

    分布式應用管理框架 。 Zookeeper是個開源的,分布式的,為分布式框架提供協調服務的Apach項目。 主要用于解決分布式應用集群中 應用系統(tǒng)的一致性問題 。 作為 文件系統(tǒng) ,用于注冊各種分布式應用, 儲存管理分布式應用的元信息 ; 作為 通知機制 ,如果節(jié)點或者服務本身的

    2024年02月08日
    瀏覽(54)
  • Linux多虛擬機集群化配置詳解(Zookeeper集群、Kafka集群、Hadoop集群、HBase集群、Spark集群、Flink集群、Zabbix、Grafana部署)

    Linux多虛擬機集群化配置詳解(Zookeeper集群、Kafka集群、Hadoop集群、HBase集群、Spark集群、Flink集群、Zabbix、Grafana部署)

    前面安裝的軟件,都是以單機模式運行的,學習大數據相關的軟件部署,后續(xù)安裝軟件服務,大多數都是以集群化(多臺服務器共同工作)模式運行的。所以,需要完成集群化環(huán)境的前置準備,包括創(chuàng)建多臺虛擬機,配置主機名映射,SSH免密登錄等等。 我們可以使用VMware提供

    2024年02月04日
    瀏覽(30)
  • Zookeeper 和 Kafka 工作原理及如何搭建 Zookeeper集群 + Kafka集群

    Zookeeper 和 Kafka 工作原理及如何搭建 Zookeeper集群 + Kafka集群

    目錄 1 Zookeeper 1.1 Zookeeper 定義 1.2 Zookeeper 工作機制 1.3 Zookeeper 特點 1.4 Zookeeper 數據結構 1.5 Zookeeper 應用場景 1.6 Zookeeper 選舉機制 2 部署 Zookeeper 集群 2.1 安裝前準備 2.2 安裝 Zookeeper 3 Kafka 3.1 為什么需要消息隊列(MQ) 3.2 使用消息隊列的好處 3.3 消息隊列的兩種模式 3.4 Kafka 定義

    2024年02月08日
    瀏覽(50)
  • Zookeeper集群 + Kafka集群

    Zookeeper集群 + Kafka集群

    目錄 一、概述 (一)Zookeeper概述 1.Zookeeper 定義 2.Zookeeper 工作機制 3.Zookeeper 特點 (1)組成 (2)全局數據一致 (3)更新請求順序執(zhí)行 (4)數據更新原子性 (5)實時性 4.Zookeeper 數據結構 5.Zookeeper 應用場景 (1)統(tǒng)一命名服務 (2)統(tǒng)一配置管理 (3)統(tǒng)一集群管理 (4)服

    2024年01月24日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包