国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用?KubeSphere?部署高可用?RocketMQ?集群

這篇具有很好參考價值的文章主要介紹了使用?KubeSphere?部署高可用?RocketMQ?集群。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

作者:老Z,云原生愛好者,目前專注于云原生運(yùn)維,KubeSphere Ambassador。

Spring Cloud Alibaba 全家桶之 RocketMQ 是一款典型的分布式架構(gòu)下的消息中間件產(chǎn)品,使用異步通信方式和發(fā)布訂閱的消息傳輸模型。

很多基于 Spring Cloud 開發(fā)的項(xiàng)目都喜歡采用 RocketMQ 作為消息中間件。

RocketMQ 常用的部署模式如下:

  • 單 Master 模式
  • 多 Master 無 Slave 模式
  • 多 Master 多 Slave 模式-異步復(fù)制
  • 多 Master 多 Slave 模式-同步雙寫

更多的部署方案詳細(xì)信息可以參考官方文檔。

本文重點(diǎn)介紹 單 Master 模式和多 Master 多 Slave-異步復(fù)制模式在 K8s 集群上的部署方案。

單 Master 模式

這種部署方式風(fēng)險較大,僅部署一個 NameServer 和一個 Broker,一旦 Broker 重啟或者宕機(jī)時,會導(dǎo)致整個服務(wù)不可用,不建議線上生產(chǎn)環(huán)境使用,僅可以用于開發(fā)和測試環(huán)境。

部署方案參考官方rocketmq-docker項(xiàng)目中使用的容器化部署方案涉及的鏡像、啟動方式、定制化配置。

多 Master 多 Slave-異步復(fù)制模式

每個 Master 配置一個 Slave,有多對 Master-Slave,HA 采用異步復(fù)制方式,主備有短暫消息延遲(毫秒級),這種模式的優(yōu)缺點(diǎn)如下:

  • 優(yōu)點(diǎn):即使磁盤損壞,消息丟失的非常少,且消息實(shí)時性不會受影響,同時 Master 宕機(jī)后,消費(fèi)者仍然可以從 Slave 消費(fèi),而且此過程對應(yīng)用透明,不需要人工干預(yù),性能同多 Master 模式幾乎一樣;
  • 缺點(diǎn):Master 宕機(jī),磁盤損壞情況下會丟失少量消息。

多 Master 多 Slave-異步復(fù)制模式適用于生產(chǎn)環(huán)境,部署方案采用官方提供的 RocketMQ Operator。

使用?KubeSphere?部署高可用?RocketMQ?集群

離線鏡像制作

此過程為可選項(xiàng),離線內(nèi)網(wǎng)環(huán)境可用,如果不配置內(nèi)網(wǎng)鏡像,后續(xù)的資源配置清單中注意容器的 image 參數(shù)請使用默認(rèn)值。

本文分別介紹了單 Master 模式和多 Master 多 Slave-異步復(fù)制模式部署 RocketMQ 使用的離線鏡像的制作方式。

  • 單 Master 模式直接采用 RocketMQ 官方文檔中介紹的容器化部署方案中使用的鏡像。

  • 多 Master 多 Slave-異步復(fù)制模式的離線鏡像制作方式采用 RocketMQ Operator 官方自帶的鏡像制作工具制作打包,制作過程中很多包都需要到國外網(wǎng)絡(luò)下載,但是受限于國外網(wǎng)絡(luò)訪問,默認(rèn)成功率較低,需要多次嘗試或采取特殊手段 ( 懂的都懂)。

    也可以用傳統(tǒng)的方式手工的 Pull Docker Hub 上已有的鏡像,然后再 Push 到私有鏡像倉庫。

在一臺能同時訪問互聯(lián)網(wǎng)和內(nèi)網(wǎng) Harbor 倉庫的服務(wù)器上進(jìn)行下面的操作。

在 Harbor 中創(chuàng)建項(xiàng)目

本人習(xí)慣內(nèi)網(wǎng)離線鏡像的命名空間跟應(yīng)用鏡像默認(rèn)的命名空間保持一致,因此,在 Harbor 中創(chuàng)建 apacheapacherocketmq 兩個項(xiàng)目,可以在 Harbor 管理界面中手工創(chuàng)建項(xiàng)目,也可以用下面命令行的方式自動化創(chuàng)建。

curl -u "admin:Harbor12345" -X POST -H "Content-Type: application/json" https://registry.zdevops.com.cn/api/v2.0/projects -d '{ "project_name": "apache", "public": true}'
curl -u "admin:Harbor12345" -X POST -H "Content-Type: application/json" https://registry.zdevops.com.cn/api/v2.0/projects -d '{ "project_name": "apacherocketmq", "public": true}'

安裝 Go 1.16

RocketMQ Operator 自定義鏡像制作需要用到 Go 環(huán)境,需要先安裝配置。

下載 Go 1.16 系列的最新版:

cd /opt/
wget https://golang.google.cn/dl/go1.16.15.linux-amd64.tar.gz

解壓源代碼到指定目錄:

tar zxvf go1.16.15.linux-amd64.tar.gz -C /usr/local/

配置環(huán)境變量:

cat >> /etc/profile.d/go.sh << EOF
# go environment
export GOROOT=/usr/local/go
export GOPATH=/srv/go
export PATH=$PATH:$GOROOT/bin:$GOPATH/bin
EOF

GOPATH 為工作目錄也是代碼的存放目錄,可以根據(jù)自己的習(xí)慣配置

配置 Go:

go env -w GO111MODULE=on
go env -w GOPROXY=https://goproxy.cn,direct

驗(yàn)證:

source /etc/profile.d/go.sh
go verison

獲取 RocketMQ Operator

從 Apache 官方 GitHub 倉庫獲取 rocketmq-operator 代碼。

cd /srv
git clone -b 0.3.0 https://github.com/apache/rocketmq-operator.git

制作 RocketMQ Operator Image

修改 DockerFile:

cd /srv/rocketmq-operator
vi Dockerfile

Notice: 構(gòu)建鏡像的過程需訪問國外的軟件源和鏡像倉庫,在國內(nèi)訪問有時會受限制,因此可以提前修改為國內(nèi)的軟件源和鏡像倉庫。

此操作為可選項(xiàng),如果訪問不受限則不需要配置。

必要的修改內(nèi)容

# 第 10 行(修改代理地址為國內(nèi)地址,加速訪問)
# 修改前
RUN go mod download

# 修改后
RUN go env -w GOPROXY=https://goproxy.cn,direct && go mod download

# 第 25 行(修改源地址為國內(nèi)源)
# 修改前
RUN apk add --no-cache bash gettext nmap-ncat openssl busybox-extras

# 修改后
RUN sed -i 's/dl-cdn.alpinelinux.org/mirrors.tuna.tsinghua.edu.cn/g' /etc/apk/repositories && \
    apk add --no-cache bash gettext nmap-ncat openssl busybox-extras

可選的修改內(nèi)容

# 默認(rèn)安裝的 ROCKETMQ版本為 4.9.4,可以修改為指定版本
# 第 28 行,修改 4.9.4
ENV ROCKETMQ_VERSION 4.9.4

制作鏡像:

yum install gcc
cd /srv/rocketmq-operator
go mod tidy
IMAGE_URL=registry.zdevops.com.cn/apacherocketmq/rocketmq-operator:0.3.0
make docker-build IMG=${IMAGE_URL}

驗(yàn)證鏡像構(gòu)建成功:

docker images | grep rocketmq-operator

推送鏡像:

make docker-push IMG=${IMAGE_URL}

清理臨時鏡像

docker rmi registry.zdevops.com.cn/apacherocketmq/rocketmq-operator:0.3.0

制作 RocketMQ Broker Image

修改 DockerFile(可選):

cd /srv/rocketmq-operator/images/broker/alpine
vi Dockerfile

此操作為可選項(xiàng),主要是為了安裝軟件加速,如果訪問不受限則不需要配置。

# 第 20 行(修改源地址為國內(nèi)源)
# 修改前
RUN apk add --no-cache bash gettext nmap-ncat openssl busybox-extras

# 修改后
RUN sed -i 's/dl-cdn.alpinelinux.org/mirrors.tuna.tsinghua.edu.cn/g' /etc/apk/repositories && \
    apk add --no-cache bash gettext nmap-ncat openssl busybox-extras

修改鏡像構(gòu)建腳本:

# 修改鏡像倉庫地址為內(nèi)網(wǎng)地址

sed -i 's#apacherocketmq#registry.zdevops.com.cn/apacherocketmq#g' build-broker-image.sh

構(gòu)建并推送鏡像:

./build-broker-image.sh 4.9.4

驗(yàn)證鏡像構(gòu)建成功:

docker images | grep rocketmq-broker

清理臨時鏡像:

docker rmi registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.9.4-alpine-operator-0.3.0

制作 RocketMQ Name Server Image

修改 DockerFile(可選):

cd /srv/rocketmq-operator/images/namesrv/alpine
vi Dockerfile

此操作為可選項(xiàng),主要是為了安裝軟件加速,如果訪問不受限則不需要配置。

# 第 20 行(修改源地址為國內(nèi)源)
# 修改前
RUN apk add --no-cache bash gettext nmap-ncat openssl busybox-extras

# 修改后
RUN sed -i 's/dl-cdn.alpinelinux.org/mirrors.tuna.tsinghua.edu.cn/g' /etc/apk/repositories && \
    apk add --no-cache bash gettext nmap-ncat openssl busybox-extras

修改鏡像構(gòu)建腳本:

# 修改鏡像倉庫地址為內(nèi)網(wǎng)地址

sed -i 's#apacherocketmq#registry.zdevops.com.cn/apacherocketmq#g' build-namesrv-image.sh

構(gòu)建并推送鏡像:

./build-namesrv-image.sh 4.9.4

驗(yàn)證鏡像構(gòu)建成功:

docker images | grep rocketmq-nameserver

清理臨時鏡像:

docker rmi registry.zdevops.com.cn/apacherocketmq/rocketmq-nameserver:4.9.4-alpine-operator-0.3.0

根據(jù)官方已有鏡像制作離線鏡像

上面的 RocketMQ 多 Master 多 Slave-異步復(fù)制模式部署方案中用到的離線鏡像制作方案更適合于本地修改定制的場景,如果單純的只想把官方已有鏡像不做修改的下載并推送到本地倉庫,可以參考下面的方案。

下載鏡像:

docker pull apache/rocketmq-operator:0.3.0
docker pull apacherocketmq/rocketmq-nameserver:4.5.0-alpine-operator-0.3.0
docker pull apacherocketmq/rocketmq-broker:4.5.0-alpine-operator-0.3.0

Notice: 官方倉庫最新版的鏡像是 2 年前的 4.5.0.

重新打 tag:

docker tag apache/rocketmq-operator:0.3.0-snapshot registry.zdevops.com.cn/apacherocketmq/rocketmq-operator:0.3.0
docker tag apacherocketmq/rocketmq-nameserver:4.5.0-alpine-operator-0.3.0 registry.zdevops.com.cn/apacherocketmq/rocketmq-nameserver:4.5.0-alpine-operator-0.3.0
docker tag apacherocketmq/rocketmq-broker:4.5.0-alpine-operator-0.3.0 registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.5.0-alpine-operator-0.3.0

推送到私有鏡像倉庫:

docker push registry.zdevops.com.cn/apacherocketmq/rocketmq-operator:0.3.0
docker push registry.zdevops.com.cn/apacherocketmq/rocketmq-nameserver:4.9.4-alpine-operator-0.3.0
docker push registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.9.4-alpine-operator-0.3.0

清理臨時鏡像:

docker rmi apache/rocketmq-operator:0.3.0
docker rmi apacherocketmq/rocketmq-nameserver:4.5.0-alpine-operator-0.3.0
docker rmi apacherocketmq/rocketmq-broker:4.5.0-alpine-operator-0.3.0
docker rmi registry.zdevops.com.cn/apacherocketmq/rocketmq-operator:0.3.0
docker rmi registry.zdevops.com.cn/apacherocketmq/rocketmq-nameserver:4.5.0-alpine-operator-0.3.0
docker rmi registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.5.0-alpine-operator-0.3.0

制作 RocketMQ Console Image

本文直接拉取官方鏡像作為本地離線鏡像,如果需要修改內(nèi)容并重構(gòu),可以參考 RocketMQ Console 使用的 官方 Dockerfile自行構(gòu)建。

下載鏡像:

docker pull apacherocketmq/rocketmq-console:2.0.0

重新打 tag:

docker tag apacherocketmq/rocketmq-console:2.0.0 registry.zdevops.com.cn/apacherocketmq/rocketmq-console:2.0.0

推送到私有鏡像倉庫:

docker push registry.zdevops.com.cn/apacherocketmq/rocketmq-console:2.0.0

清理臨時鏡像:

docker rmi apacherocketmq/rocketmq-console:2.0.0
docker rmi registry.zdevops.com.cn/apacherocketmq/rocketmq-console:2.0.0

準(zhǔn)備單 Master RocketMQ 部署方案涉及的離線鏡像

單 Master RocketMQ 部署方案涉及的鏡像跟集群模式部署方案采用的 RocketMQ Operator 中使用的鏡像不同,在制作離線鏡像時,直接從官方鏡像庫拉取然后重新打 tag,再推送本地鏡像倉庫。

二者具體不同說明如下:

  • 單 Master 方案使用的是 Docker Hub 中 apache 命名空間下的鏡像,并且鏡像名稱不區(qū)分 nameserver 和 broker,RocketMQ Operator 使用的是 apacherocketmq 命名空間下的鏡像,鏡像名稱區(qū)分 nameserver 和 broker。

  • 單 Master 方案和 RocketMQ Operator 方案中管理工具使用的鏡像也不同,單 Master 方案使用的是 apacherocketmq 命名空間下的 rocketmq-dashboard 鏡像,RocketMQ Operator 使用的是 apacherocketmq 命名空間下的 rocketmq-console 鏡像。

具體的離線鏡像制作流程如下:

下載鏡像
docker pull apache/rocketmq:4.9.4
docker pull apacherocketmq/rocketmq-dashboard:1.0.0
重新打 tag
docker tag apache/rocketmq:4.9.4 registry.zdevops.com.cn/apache/rocketmq:4.9.4
docker tag apacherocketmq/rocketmq-dashboard:1.0.0 registry.zdevops.com.cn/apacherocketmq/rocketmq-dashboard:1.0.0
推送到私有鏡像倉庫
docker push registry.zdevops.com.cn/apache/rocketmq:4.9.4
docker push registry.zdevops.com.cn/apacherocketmq/rocketmq-dashboard:1.0.0
清理臨時鏡像
docker rmi apache/rocketmq:4.9.4
docker rmi apacherocketmq/rocketmq-dashboard:1.0.0
docker rmi registry.zdevops.com.cn/apache/rocketmq:4.9.4
docker rmi registry.zdevops.com.cn/apacherocketmq/rocketmq-dashboard:1.0.0

單 Master 模式部署

思路梳理

根據(jù) RocketMQ 服務(wù)使用的組件,需要部署以下資源

  • Broker StatefulSet
  • NameServer StatefulSet
  • NameServer Cluster Service:內(nèi)部服務(wù)
  • Dashboard Deployment
  • Dashboard External Service:Dashboard 外部管理用
  • ConfigMap:Broker 自定義配置文件

資源配置清單

參考 GitHub 中 Apache rocketmq-docker項(xiàng)目中介紹的容器化啟動示例配置,編寫適用于 K8S 的資源配置清單。

Notice: 每個人技術(shù)能力、技術(shù)習(xí)慣、服務(wù)環(huán)境有所不同,這里介紹的只是我采用的一種簡單方式,并不一定是最優(yōu)的方案,大家可以根據(jù)實(shí)際情況編寫適合自己的配置。

rocketmq-cm.yaml

kind: ConfigMap
apiVersion: v1
metadata:
  name: rocketmq-broker-config
  namespace: zdevops
data:
  BROKER_MEM: ' -Xms2g -Xmx2g -Xmn1g '
  broker-common.conf: |-
    brokerClusterName = DefaultCluster
    brokerName = broker-0
    brokerId = 0
    deleteWhen = 04
    fileReservedTime = 48
    brokerRole = ASYNC_MASTER
    flushDiskType = ASYNC_FLUSH

rocketmq-name-service-sts.yaml

kind: StatefulSet
apiVersion: apps/v1
metadata:
  name: rocketmq-name-service
  namespace: zdevops
spec:
  replicas: 1
  selector:
    matchLabels:
      app: rocketmq-name-service
      name_service_cr: rocketmq-name-service
  template:
    metadata:
      labels:
        app: rocketmq-name-service
        name_service_cr: rocketmq-name-service
    spec:
      volumes:
        - name: host-time
          hostPath:
            path: /etc/localtime
            type: ''
      containers:
        - name: rocketmq-name-service
          image: 'registry.zdevops.com.cn/apache/rocketmq:4.9.4'
          command:
            - /bin/sh
          args:
            - mqnamesrv
          ports:
            - name: tcp-9876
              containerPort: 9876
              protocol: TCP
          resources:
            limits:
              cpu: 500m
              memory: 1Gi
            requests:
              cpu: 250m
              memory: 512Mi
          volumeMounts:
            - name: rocketmq-namesrv-storage
              mountPath: /home/rocketmq/logs
              subPath: logs
            - name: host-time
              readOnly: true
              mountPath: /etc/localtime
          imagePullPolicy: Always
  volumeClaimTemplates:
    - kind: PersistentVolumeClaim
      apiVersion: v1
      metadata:
        name: rocketmq-namesrv-storage
      spec:
        accessModes:
          - ReadWriteOnce
        resources:
          requests:
            storage: 1Gi
        storageClassName: glusterfs
        volumeMode: Filesystem
  serviceName: ''

---
kind: Service
apiVersion: v1
metadata:
  name: rocketmq-name-server-service
  namespace: zdevops
spec:
  ports:
    - name: tcp-9876
      protocol: TCP
      port: 9876
      targetPort: 9876
  selector:
    name_service_cr: rocketmq-name-service
  type: ClusterIP

rocketmq-broker-sts.yaml

kind: StatefulSet
apiVersion: apps/v1
metadata:
  name: rocketmq-broker-0-master
  namespace: zdevops
spec:
  replicas: 1
  selector:
    matchLabels:
      app: rocketmq-broker
      broker_cr: rocketmq-broker
  template:
    metadata:
      labels:
        app: rocketmq-broker
        broker_cr: rocketmq-broker
    spec:
      volumes:
        - name: rocketmq-broker-config
          configMap:
            name: rocketmq-broker-config
            items:
              - key: broker-common.conf
                path: broker-common.conf
            defaultMode: 420
        - name: host-time
          hostPath:
            path: /etc/localtime
            type: ''
      containers:
        - name: rocketmq-broker
          image: 'apache/rocketmq:4.9.4'
          command:
            - /bin/sh
          args:
            - mqbroker
            - "-c"
            - /home/rocketmq/conf/broker-common.conf
          ports:
            - name: tcp-vip-10909
              containerPort: 10909
              protocol: TCP
            - name: tcp-main-10911
              containerPort: 10911
              protocol: TCP
            - name: tcp-ha-10912
              containerPort: 10912
              protocol: TCP
          env:
            - name: NAMESRV_ADDR
              value: 'rocketmq-name-server-service.zdevops:9876'
            - name: BROKER_MEM
              valueFrom:
                configMapKeyRef:
                  name: rocketmq-broker-config
                  key: BROKER_MEM
          resources:
            limits:
              cpu: 500m
              memory: 12Gi
            requests:
              cpu: 250m
              memory: 2Gi
          volumeMounts:
            - name: host-time
              readOnly: true
              mountPath: /etc/localtime
            - name: rocketmq-broker-storage
              mountPath: /home/rocketmq/logs
              subPath: logs/broker-0-master
            - name: rocketmq-broker-storage
              mountPath: /home/rocketmq/store
              subPath: store/broker-0-master
            - name: rocketmq-broker-config
              mountPath: /home/rocketmq/conf/broker-common.conf
              subPath: broker-common.conf
          imagePullPolicy: Always
  volumeClaimTemplates:
    - kind: PersistentVolumeClaim
      apiVersion: v1
      metadata:
        name: rocketmq-broker-storage
      spec:
        accessModes:
          - ReadWriteOnce
        resources:
          requests:
            storage: 8Gi
        storageClassName: glusterfs
        volumeMode: Filesystem
  serviceName: ''

rocketmq-dashboard.yaml

kind: Deployment
apiVersion: apps/v1
metadata:
  name: rocketmq-dashboard
  namespace: zdevops
spec:
  replicas: 1
  selector:
    matchLabels:
      app: rocketmq-dashboard
  template:
    metadata:
      labels:
        app: rocketmq-dashboard
    spec:
      containers:
        - name: rocketmq-dashboard
          image: 'registry.zdevops.com.cn/apacherocketmq/rocketmq-dashboard:1.0.0'
          ports:
            - name: http-8080
              containerPort: 8080
              protocol: TCP
          env:
            - name: JAVA_OPTS
              value: >-
                -Drocketmq.namesrv.addr=rocketmq-name-server-service.zdevops:9876
                -Dcom.rocketmq.sendMessageWithVIPChannel=false
          resources:
            limits:
              cpu: 500m
              memory: 2Gi
            requests:
              cpu: 50m
              memory: 512Mi
          imagePullPolicy: Always

---
kind: Service
apiVersion: v1
metadata:
  name: rocketmq-dashboard-service
  namespace: zdevops
spec:
  ports:
    - name: http-8080
      protocol: TCP
      port: 8080
      targetPort: 8080
      nodePort: 31080
  selector:
    app: rocketmq-dashboard
  type: NodePort

GitOps

本操作為可選項(xiàng),本人習(xí)慣在個人開發(fā)服務(wù)器上編輯或修改資源配置清單,然后提交到 Git 服務(wù)器 (Gitlab、Gitee、GitHub 等),然后在 k8s 節(jié)點(diǎn)上從 Git 服務(wù)器拉取資源配置清單并執(zhí)行,從而實(shí)現(xiàn)資源配置清單的版本化管理,簡單的實(shí)現(xiàn)運(yùn)維 GitOps。

本系列文檔的所有 k8s 資源配置清單文件,為了演示和操作方便,都放在了統(tǒng)一的 k8s-yaml 倉庫中,實(shí)際工作中都是一個應(yīng)用一個 Git 倉庫,更便于應(yīng)用配置的版本控制。

大家在實(shí)際使用中可以忽略本步驟,直接在 k8s 節(jié)點(diǎn)上編寫資源配置清單并執(zhí)行,也可以參考我的使用方式,實(shí)現(xiàn)簡單的 GitOps。

在個人運(yùn)維開發(fā)服務(wù)器上操作

# 在已有代碼倉庫創(chuàng)建 rocketmq/single 目錄
mkdir -p rocketmq/single

# 編輯資源配置清單
vi rocketmq/single/rocketmq-cm.yaml
vi rocketmq/single/rocketmq-name-service-sts.yaml
vi rocketmq/single/rocketmq-broker-sts.yaml
vi rocketmq/single/rocketmq-dashboard.yaml

# 提交 Git
git add rocketmq
git commit -am '添加 rocketmq 單節(jié)點(diǎn)資源配置清單'
git push

部署資源

在 k8s 集群 Master 節(jié)點(diǎn)上或是獨(dú)立的運(yùn)維管理服務(wù)器上操作。

更新鏡像倉庫代碼
cd /srv/k8s-yaml
git pull
部署資源 (分步式,二選一)

測試環(huán)境使用分步單獨(dú)部署的方式,以便測試資源配置清單的準(zhǔn)確性。

cd /srv/k8s-yaml
kubectl apply -f rocketmq/single/rocketmq-cm.yaml
kubectl apply -f rocketmq/single/rocketmq-name-service-sts.yaml
kubectl apply -f rocketmq/single/rocketmq-broker-sts.yaml
kubectl apply -f rocketmq/single/rocketmq-dashboard.yaml
部署資源 (一鍵式,二選一)

實(shí)際使用中,可以直接 apply 整個目錄,實(shí)現(xiàn)一鍵式自動部署,在正式研發(fā)和生產(chǎn)環(huán)境中使用目錄的方式實(shí)現(xiàn)快速部署。

kubectl apply -f rocketmq/single/

驗(yàn)證

ConfigMap:

$ kubectl get cm -n zdevops

NAME                     DATA   AGE
kube-root-ca.crt         1      17d
rocketmq-broker-config   2      22s

StatefulSet:

$ kubectl get sts -o wide -n zdevops

NAME                       READY   AGE   CONTAINERS              IMAGES
rocketmq-broker-0-master   1/1     11s   rocketmq-broker         registry.zdevops.com.cn/apache/rocketmq:4.9.4
rocketmq-name-service      1/1     12s   rocketmq-name-service   registry.zdevops.com.cn/apache/rocketmq:4.9.4

Deployment:

$ kubectl get deploy -o wide -n zdevops

NAME                 READY   UP-TO-DATE   AVAILABLE   AGE   CONTAINERS           IMAGES                                                            SELECTOR
rocketmq-dashboard   1/1     1            1           31s   rocketmq-dashboard   registry.zdevops.com.cn/apacherocketmq/rocketmq-dashboard:1.0.0   app=rocketmq-dashboard

Pods:

$ kubectl get pods -o wide -n zdevops

NAME                                 READY   STATUS    RESTARTS   AGE   IP               NODE              NOMINATED NODE   READINESS GATES
rocketmq-broker-0-master-0           1/1     Running   0          77s   10.233.116.103   ks-k8s-master-2   <none>           <none>
rocketmq-dashboard-b5dbb9d88-cwhqc   1/1     Running   0          3s    10.233.87.115    ks-k8s-master-1   <none>           <none>
rocketmq-name-service-0              1/1     Running   0          78s   10.233.116.102   ks-k8s-master-2   <none>           <none>

Service:

$ kubectl get svc -o wide -n zdevops

NAME                           TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)          AGE     SELECTOR
rocketmq-dashboard-service     NodePort    10.233.5.237    <none>        8080:31080/TCP   74s     app=rocketmq-dashboard
rocketmq-name-server-service   ClusterIP   10.233.3.61     <none>        9876/TCP         2m29s   name_service_cr=rocketmq-name-service

通過瀏覽器打開 K8S 集群中任意節(jié)點(diǎn)的 IP:31080,可以看到 RocketMQ 控制臺的管理界面。

使用?KubeSphere?部署高可用?RocketMQ?集群

清理資源

卸載 RocketMQ 或是安裝失敗需要清理后重新安裝,可以在 K8S 集群上使用下面的流程清理資源。

清理 StatefulSet:

kubectl delete sts rocketmq-broker-0-master -n zdevops
kubectl delete sts rocketmq-name-service -n zdevops

清理 Deployment:

kubectl delete deployments rocketmq-dashboard -n zdevops

清理 ConfigMap:

kubectl delete cm rocketmq-broker-config -n zdevops

清理服務(wù):

kubectl delete svc rocketmq-name-server-service -n zdevops 
kubectl delete svc rocketmq-dashboard-service -n zdevops 

清理存儲卷:

kubectl delete pvc rocketmq-namesrv-storage-rocketmq-name-service-0 -n zdevops
kubectl delete pvc rocketmq-broker-storage-rocketmq-broker-0-master-0 -n zdevops

當(dāng)然,也可以利用資源配置清單清理資源,更簡單快捷 (存儲卷無法自動清理,需要手工清理)。

$ kubectl delete -f rocketmq/single/

statefulset.apps "rocketmq-broker-0-master" deleted
configmap "rocketmq-broker-config" deleted
deployment.apps "rocketmq-dashboard" deleted
service "rocketmq-dashboard-service" deleted
statefulset.apps "rocketmq-name-service" deleted
service "rocketmq-name-server-service" deleted

多 Master 多 Slave-異步復(fù)制模式部署

思路梳理

多 Master 多 Slave-異步復(fù)制模式的 RocketMQ 部署,使用官方提供的 RocketMQ Operator,部署起來比較快速便捷,擴(kuò)容也比較方便。

默認(rèn)配置會部署 1 個 Master 和 1 個對應(yīng)的 Slave,部署完成后可以根據(jù)需求擴(kuò)容 Master 和 Slave。

獲取 RocketMQ Operator

# git 獲取代碼時指定版本
cd /srv 
git clone -b 0.3.0 https://github.com/apache/rocketmq-operator.git

準(zhǔn)備資源配置清單

本文演示的資源配置清單都是直接修改 rocketmq-operator 默認(rèn)的配置,生產(chǎn)環(huán)境應(yīng)根據(jù)默認(rèn)配置修改一套適合自己環(huán)境的標(biāo)準(zhǔn)配置文件,并存放于 git 倉庫中。

為 deploy 資源配置清單文件增加或修改命名空間:

cd /srv/rocketmq-operator
sed -i 'N;8 a \  namespace: zdevops' deploy/crds/rocketmq.apache.org_brokers.yaml
sed -i 'N;8 a \  namespace: zdevops' deploy/crds/rocketmq.apache.org_consoles.yaml
sed -i 'N;8 a \  namespace: zdevops' deploy/crds/rocketmq.apache.org_nameservices.yaml
sed -i 'N;8 a \  namespace: zdevops' deploy/crds/rocketmq.apache.org_topictransfers.yaml
sed -i 'N;18 a \  namespace: zdevops' deploy/operator.yaml
sed -i 'N;18 a \  namespace: zdevops' deploy/role_binding.yaml
sed -i 's/namespace: default/namespace: zdevops/g' deploy/role_binding.yaml
sed -i 'N;18 a \  namespace: zdevops' deploy/service_account.yaml
sed -i 'N;20 a \  namespace: zdevops' deploy/role.yaml

切記此步驟只能執(zhí)行一次,如果失敗了則需要刪掉后重新執(zhí)行。

執(zhí)行完成后一定要查看一下結(jié)果是否符合預(yù)期 grep -r zdevops deploy/*。

修改 example 資源配置清單文件中的命名空間:

sed -i 's/namespace: default/namespace: zdevops/g' example/rocketmq_v1alpha1_rocketmq_cluster.yaml
sed -i 'N;18 a \  namespace: zdevops' example/rocketmq_v1alpha1_cluster_service.yaml

修改鏡像地址為內(nèi)網(wǎng)地址:

sed -i 's#apache/rocketmq-operator:0.3.0#registry.zdevops.com.cn/apacherocketmq/rocketmq-operator:0.3.0#g' deploy/operator.yaml
sed -i 's#apacherocketmq#registry.zdevops.com.cn/apacherocketmq#g' example/rocketmq_v1alpha1_rocketmq_cluster.yaml 

修改 RocketMQ 版本 (可選):

sed -i 's/4.5.0/4.9.4/g' example/rocketmq_v1alpha1_rocketmq_cluster.yaml 

Notice: 默認(rèn)的資源配置清單示例中部署 RocketMQ 集群的版本為 4.5.0, 實(shí)際使用時請根據(jù)需求調(diào)整。

修改 NameService 網(wǎng)絡(luò)模式 (可選):

sed -i 's/hostNetwork: true/hostNetwork: false/g' example/rocketmq_v1alpha1_rocketmq_cluster.yaml 
sed -i 's/dnsPolicy: ClusterFirstWithHostNet/dnsPolicy: ClusterFirst/g' example/rocketmq_v1alpha1_rocketmq_cluster.yaml

Notice: 官方示例默認(rèn)配置使用 hostNetwork 模式 , 適用于同時給 K8S 集群內(nèi)、外應(yīng)用提供服務(wù) , 實(shí)際使用時請根據(jù)需求調(diào)整 .

個人傾向于禁用 hostNetwork 模式 , 不跟外部應(yīng)用混用 . 如果需要混用 , 則傾向于在外部獨(dú)立部署 RocketMQ。

修改 storageClassName 為 glusterfs:

sed -i 's/storageClassName: rocketmq-storage/storageClassName: glusterfs/g' example/rocketmq_v1alpha1_rocketmq_cluster.yaml
sed -i 's/storageMode: EmptyDir/storageMode: StorageClass/g' example/rocketmq_v1alpha1_rocketmq_cluster.yaml

Notice: 演示環(huán)境 GlusterFS 存儲對應(yīng)的 storageClassName 為 glusterfs,請根據(jù)實(shí)際情況修改。

修改 nameServers 為域名的形式:

sed -i 's/nameServers: ""/nameServers: "name-server-service.zdevops:9876"/g' example/rocketmq_v1alpha1_rocketmq_cluster.yaml

Notice: name-server-service.zdevops 是 NameServer service 名稱 + 項(xiàng)目名稱的組合

默認(rèn)配置采用 pod [ip:port] 的形式 , 一旦 Pod IP 發(fā)生變化 ,Console 就沒法管理集群了 , 且 Console 不會自動變更配置,如果設(shè)置為空的話可能還會出現(xiàn)隨便配置的情況,因此一定要提前修改。

修改 RocketMQ Console 外部訪問的 NodePort:

sed -i 's/nodePort: 30000/nodePort: 31080/g' example/rocketmq_v1alpha1_cluster_service.yaml

Notice: 官方示例默認(rèn)配置端口號為 30000, 實(shí)際使用時請根據(jù)需求調(diào)整。

修改 RocketMQ NameServer 和 Console 的 service 配置:

sed -i '32,46s/^#//g' example/rocketmq_v1alpha1_cluster_service.yaml
sed -i 's/nodePort: 30001/nodePort: 31081/g' example/rocketmq_v1alpha1_cluster_service.yaml
sed -i 's/namespace: default/namespace: zdevops/g' example/rocketmq_v1alpha1_cluster_service.yaml

NameServer 默認(rèn)使用了 NodePort 的形式,單純在 K8S 集群內(nèi)部使用的話,可以修改為集群模式。

GitOps

生產(chǎn)環(huán)境實(shí)際使用時建議將上面編輯整理后的資源配置清單,單獨(dú)整理,刪除 rocketmq-operator 項(xiàng)目中多余的文件,行成一套適合于自己業(yè)務(wù)需要的資源配置清單,并使用 Git 進(jìn)行版本控制。

單 Master 模式部署方案中已經(jīng)詳細(xì)介紹過操作流程,此處不再多做介紹。

4.5. 部署 RocketMQ Operator (自動)

官方介紹的自動部署方法,適用于能連接互聯(lián)網(wǎng)的環(huán)境,部署過程中需要下載 controller-gen 和 kustomize 二進(jìn)制文件,同時會下載一堆 go 依賴。

不適合于內(nèi)網(wǎng)離線環(huán)境,這里只是簡單介紹,本文重點(diǎn)采用后面的手動部署的方案。

部署 RocketMQ Operator:

make deploy

部署 RocketMQ Operator (手動)

部署 RocketMQ Operator:

kubectl create -f deploy/crds/rocketmq.apache.org_brokers.yaml
kubectl create -f deploy/crds/rocketmq.apache.org_nameservices.yaml
kubectl create -f deploy/crds/rocketmq.apache.org_consoles.yaml
kubectl create -f deploy/crds/rocketmq.apache.org_topictransfers.yaml
kubectl create -f deploy/service_account.yaml
kubectl create -f deploy/role.yaml
kubectl create -f deploy/role_binding.yaml
kubectl create -f deploy/operator.yaml

驗(yàn)證 CRDS:

$ kubectl get crd | grep rocketmq.apache.org

brokers.rocketmq.apache.org                           2022-11-09T02:54:52Z
consoles.rocketmq.apache.org                          2022-11-09T02:54:54Z
nameservices.rocketmq.apache.org                      2022-11-09T02:54:53Z
topictransfers.rocketmq.apache.org                    2022-11-09T02:54:54Z

驗(yàn)證 RocketMQ Operator:

$ kubectl get deploy -n zdevops -o wide

NAME                READY   UP-TO-DATE   AVAILABLE   AGE     CONTAINERS   IMAGES                                                           SELECTOR
rocketmq-operator   1/1     1            1           6m46s   manager      registry.zdevops.com.cn/apacherocketmq/rocketmq-operator:0.3.0   name=rocketmq-operator

$ kubectl get pods -n zdevops -o wide

NAME                                 READY   STATUS    RESTARTS   AGE     IP              NODE              NOMINATED NODE   READINESS GATES
rocketmq-operator-7cc6b48796-htpk8   1/1     Running   0          2m28s   10.233.116.70   ks-k8s-master-2   <none>           <none>

部署 RocketMQ 集群

創(chuàng)建服務(wù):

$ kubectl apply -f example/rocketmq_v1alpha1_cluster_service.yaml

service/console-service created
service/name-server-service created

創(chuàng)建集群:

$ kubectl apply -f example/rocketmq_v1alpha1_rocketmq_cluster.yaml

configmap/broker-config created
broker.rocketmq.apache.org/broker created
nameservice.rocketmq.apache.org/name-service created
console.rocketmq.apache.org/console created

驗(yàn)證

StatefulSet:

$ kubectl get sts -o wide -n zdevops

NAME                 READY   AGE   CONTAINERS     IMAGES
broker-0-master      1/1     27s   broker         registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.9.4-alpine-operator-0.3.0
broker-0-replica-1   1/1     27s   broker         registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.9.4-alpine-operator-0.3.0
name-service         1/1     27s   name-service   registry.zdevops.com.cn/apacherocketmq/rocketmq-nameserver:4.9.4-alpine-operator-0.3.0

Deployment:

$ kubectl get deploy -o wide -n zdevops

NAME                READY   UP-TO-DATE   AVAILABLE   AGE     CONTAINERS   IMAGES                                                           SELECTOR
console             1/1     1            1           52s     console      registry.zdevops.com.cn/apacherocketmq/rocketmq-console:2.0.0    app=rocketmq-console
rocketmq-operator   1/1     1            1           4h43m   manager      registry.zdevops.com.cn/apacherocketmq/rocketmq-operator:0.3.0   name=rocketmq-operator

Pod:

$ kubectl get pods -o wide -n zdevops

NAME                                 READY   STATUS    RESTARTS      AGE     IP              NODE              NOMINATED NODE   READINESS GATES
broker-0-master-0                    1/1     Running   0             47s     10.233.87.24    ks-k8s-master-1   <none>           <none>
broker-0-replica-1-0                 1/1     Running   0             17s     10.233.117.28   ks-k8s-master-0   <none>           <none>
console-8d685798f-5pwct              1/1     Running   0             116s    10.233.116.84   ks-k8s-master-2   <none>           <none>
name-service-0                       1/1     Running   0             96s     10.233.116.85   ks-k8s-master-2   <none>           <none>
rocketmq-operator-7cc6b48796-htpk8   1/1     Running   2 (98s ago)   4h39m   10.233.116.70   ks-k8s-master-2   <none>           <none>

Services:

$ kubectl get svc -o wide -n zdevops

NAME                                                     TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)          AGE   SELECTOR
console-service                                          NodePort    10.233.38.15    <none>        8080:31080/TCP   21m   app=rocketmq-console
name-server-service                                      NodePort    10.233.56.238   <none>        9876:31081/TCP   21m   name_service_cr=name-service   

通過瀏覽器打開 K8S 集群中任意節(jié)點(diǎn)的 IP:31080,可以看到 RocketMQ 控制臺的管理界面。

使用?KubeSphere?部署高可用?RocketMQ?集群

使用?KubeSphere?部署高可用?RocketMQ?集群

清理資源

清理 RocketMQ Cluster

部署集群失敗或是需要重新部署時,采用下面的順序清理刪除。

kubectl delete -f example/rocketmq_v1alpha1_rocketmq_cluster.yaml
kubectl delete -f example/rocketmq_v1alpha1_cluster_service.yaml
清理 RocketMQ Operator
kubectl delete -f deploy/crds/rocketmq.apache.org_brokers.yaml
kubectl delete -f deploy/crds/rocketmq.apache.org_nameservices.yaml
kubectl delete -f deploy/crds/rocketmq.apache.org_consoles.yaml
kubectl delete -f deploy/crds/rocketmq.apache.org_topictransfers.yaml
kubectl delete -f deploy/service_account.yaml
kubectl delete -f deploy/role.yaml
kubectl delete -f deploy/role_binding.yaml
kubectl delete -f deploy/operator.yaml
清理存儲卷

需要手工查找 Broker 和 NameServer 相關(guān)的存儲卷并刪除。

# 查找存儲卷
$ kubectl get pvc -n zdevops

NAME                                  STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS   AGE
broker-storage-broker-0-master-0      Bound    pvc-6a78b573-d72a-47ca-9012-5bc888dfcb0f   8Gi        RWO            glusterfs      3m54s
broker-storage-broker-0-replica-1-0   Bound    pvc-4f096942-505d-4e34-ac7f-b871b9f33df3   8Gi        RWO            glusterfs      3m54s
namesrv-storage-name-service-0        Bound    pvc-2c45a77e-3ca1-4eab-bb57-8374aa9068d3   1Gi        RWO            glusterfs      3m54s

# 刪除存儲卷
kubectl delete pvc namesrv-storage-name-service-0 -n zdevops
kubectl delete pvc broker-storage-broker-0-master-0 -n zdevops
kubectl delete pvc broker-storage-broker-0-replica-1-0 -n zdevops

擴(kuò)容 NameServer

如果當(dāng)前的 name service 集群規(guī)模不能滿足您的需求,您可以簡單地使用 RocketMQ-Operator 來擴(kuò)大或縮小 name service 集群的規(guī)模。

擴(kuò)容 name service 需要編寫并執(zhí)行獨(dú)立的資源配置清單,參考官方示例Name Server Cluster Scale,并結(jié)合自己實(shí)際環(huán)境的 rocketmq-operator 配置修改。

Notice: 不要在已部署的資源中直接修改副本數(shù),直接修改不會生效,會被 Operator 干掉。

編輯擴(kuò)容 NameServer 資源配置清單 , rocketmq_v1alpha1_nameservice_cr.yaml

apiVersion: rocketmq.apache.org/v1alpha1
kind: NameService
metadata:
  name: name-service
  namespace: zdevops
spec:
  size: 2
  nameServiceImage: registry.zdevops.com.cn/apacherocketmq/rocketmq-nameserver:4.9.4-alpine-operator-0.3.0
  imagePullPolicy: Always
  hostNetwork: false
  dnsPolicy: ClusterFirst
  resources:
    requests:
      memory: "512Mi"
      cpu: "250m"
    limits:
      memory: "1024Mi"
      cpu: "500m"
  storageMode: StorageClass
  hostPath: /data/rocketmq/nameserver
  volumeClaimTemplates:
    - metadata:
        name: namesrv-storage
      spec:
        accessModes:
          - ReadWriteOnce
        storageClassName: glusterfs
        resources:
          requests:
            storage: 1Gi

執(zhí)行擴(kuò)容操作:

kubectl apply -f rocketmq/cluster/rocketmq_v1alpha1_nameservice_cr.yaml

驗(yàn)證 StatefulSet:

$ kubectl get sts name-service -o wide -n zdevops

NAME           READY   AGE   CONTAINERS     IMAGES
name-service   2/2     16m   name-service   registry.zdevops.com.cn/apacherocketmq/rocketmq-nameserver:4.9.4-alpine-operator-0.3.0

驗(yàn)證 Pods:

$ kubectl get pods -o wide -n zdevops

NAME                                 READY   STATUS    RESTARTS   AGE    IP               NODE              NOMINATED NODE   READINESS GATES
broker-0-master-0                    1/1     Running   0          18m    10.233.87.117    ks-k8s-master-1   <none>           <none>
broker-0-replica-1-0                 1/1     Running   0          43s    10.233.117.99    ks-k8s-master-0   <none>           <none>
console-8d685798f-hnmvg              1/1     Running   0          18m    10.233.116.113   ks-k8s-master-2   <none>           <none>
name-service-0                       1/1     Running   0          18m    10.233.116.114   ks-k8s-master-2   <none>           <none>
name-service-1                       1/1     Running   0          110s   10.233.87.120    ks-k8s-master-1   <none>           <none>
rocketmq-operator-6db8ccc685-5hkk8   1/1     Running   0          18m    10.233.116.112   ks-k8s-master-2   <none>           <none>
特別說明

NameServer 擴(kuò)容一定要慎重,在實(shí)際驗(yàn)證測試中發(fā)現(xiàn) NameServer 擴(kuò)容會導(dǎo)致重建已有的除了 Broker-0 的 Master 之外的其他 Broker 的 Master 和 所有的 Slave。按官方文檔上的說明,應(yīng)該是 Operator 通知所有的 Broker 更新 name service list parameters,以便它們可以注冊到新的 NameServer Service。

同時,在 allowRestart: true 策略下,Broker 將逐漸更新,因此更新過程也不會被生產(chǎn)者和消費(fèi)者客戶端感知,也就是說理論上不會影響業(yè)務(wù)(未實(shí)際測試)。

使用?KubeSphere?部署高可用?RocketMQ?集群

使用?KubeSphere?部署高可用?RocketMQ?集群

但是,所有 Broker 的 Master 和 Slave 重建后,查看集群狀態(tài)時,集群節(jié)點(diǎn)的信息不穩(wěn)定,有的時候能看到 3 個節(jié)點(diǎn),有的時候則能看到 4 個節(jié)點(diǎn)。

使用?KubeSphere?部署高可用?RocketMQ?集群

因此,生產(chǎn)環(huán)境最好在初次部署的時候就配置 NameServer 的副本數(shù)為 2 或是 3,盡量不要在后期擴(kuò)容,除非你能搞定擴(kuò)容造成的一切后果。

擴(kuò)容 Broker

通常情況下,隨著業(yè)務(wù)的發(fā)展,現(xiàn)有的 Broker 集群規(guī)??赡懿辉贊M足您的業(yè)務(wù)需求。你可以簡單地使用 RocketMQ-Operator 來升級、擴(kuò)容 Broker 集群。

擴(kuò)容 Broker 需要編寫并執(zhí)行獨(dú)立的資源配置清單,參考官方示例Broker Cluster Scale,并結(jié)合自己實(shí)際環(huán)境的 rocketmq-operator 配置修改。

編輯擴(kuò)容 Broker 資源配置清單 , rocketmq_v1alpha1_broker_cr.yaml

apiVersion: rocketmq.apache.org/v1alpha1
kind: Broker
metadata:
  name: broker
  namespace: zdevops
spec:
  size: 2
  nameServers: "name-server-service.zdevops::9876"
  replicaPerGroup: 1
  brokerImage: registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.9.4-alpine-operator-0.3.0
  imagePullPolicy: Always
  resources:
    requests:
      memory: "2048Mi"
      cpu: "250m"
    limits:
      memory: "12288Mi"
      cpu: "500m"
  allowRestart: true
  storageMode: StorageClass
  hostPath: /data/rocketmq/broker
  # scalePodName is [Broker name]-[broker group number]-master-0
  scalePodName: broker-0-master-0
  env:
    - name: BROKER_MEM
      valueFrom:
        configMapKeyRef:
          name: broker-config
          key: BROKER_MEM
  volumes:
    - name: broker-config
      configMap:
        name: broker-config
        items:
          - key: broker-common.conf
            path: broker-common.conf
  volumeClaimTemplates:
    - metadata:
        name: broker-storage
      spec:
        accessModes:
          - ReadWriteOnce
        storageClassName: glusterfs
        resources:
          requests:
            storage: 8Gi

Notice: 注意重點(diǎn)字段 scalePodName: broker-0-master-0。

選擇源 Broker pod,將從其中將主題和訂閱信息數(shù)據(jù)等舊元數(shù)據(jù)傳輸?shù)叫聞?chuàng)建的 Broker。

執(zhí)行擴(kuò)容 Broker:

kubectl apply -f rocketmq/cluster/rocketmq_v1alpha1_broker_cr.yaml

Notice: 執(zhí)行成功后將部署一個新的 Broker Pod 組,同時 Operator 將在啟動新 Broker 之前將源 Broker Pod 中的元數(shù)據(jù)復(fù)制到新創(chuàng)建的 Broker Pod 中,因此新 Broker 將重新加載已有的主題和訂閱信息。

驗(yàn)證 StatefulSet:

$ kubectl get sts  -o wide -n zdevops
NAME                 READY   AGE   CONTAINERS     IMAGES
broker-0-master      1/1     43m   broker         registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.9.4-alpine-operator-0.3.0
broker-0-replica-1   1/1     43m   broker         registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.9.4-alpine-operator-0.3.0
broker-1-master      1/1     27s   broker         registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.9.4-alpine-operator-0.3.0
broker-1-replica-1   1/1     27s   broker         registry.zdevops.com.cn/apacherocketmq/rocketmq-broker:4.9.4-alpine-operator-0.3.0
name-service         2/2     43m   name-service   registry.zdevops.com.cn/apacherocketmq/rocketmq-nameserver:4.9.4-alpine-operator-0.3.0

驗(yàn)證 Pods:

$ kubectl get pods -o wide -n zdevops

NAME                                 READY   STATUS    RESTARTS   AGE   IP               NODE              NOMINATED NODE   READINESS GATES
broker-0-master-0                    1/1     Running   0          44m   10.233.87.117    ks-k8s-master-1   <none>           <none>
broker-0-replica-1-0                 1/1     Running   0          26m   10.233.117.99    ks-k8s-master-0   <none>           <none>
broker-1-master-0                    1/1     Running   0          72s   10.233.116.117   ks-k8s-master-2   <none>           <none>
broker-1-replica-1-0                 1/1     Running   0          72s   10.233.117.100   ks-k8s-master-0   <none>           <none>
console-8d685798f-hnmvg              1/1     Running   0          44m   10.233.116.113   ks-k8s-master-2   <none>           <none>
name-service-0                       1/1     Running   0          44m   10.233.116.114   ks-k8s-master-2   <none>           <none>
name-service-1                       1/1     Running   0          27m   10.233.87.120    ks-k8s-master-1   <none>           <none>
rocketmq-operator-6db8ccc685-5hkk8   1/1     Running   0          44m   10.233.116.112   ks-k8s-master-2   <none>           <none>

在 KubeSphere 控制臺驗(yàn)證:

使用?KubeSphere?部署高可用?RocketMQ?集群

在 RocketMQ 控制臺驗(yàn)證:

使用?KubeSphere?部署高可用?RocketMQ?集群

常見問題

沒裝 gcc 編譯工具

報(bào)錯信息:

[root@zdevops-master rocketmq-operator]# make docker-build IMG=${IMAGE_URL}
/data/k8s-yaml/rocketmq-operator/bin/controller-gen rbac:roleName=rocketmq-operator crd:generateEmbeddedObjectMeta=true webhook paths="./..." output:dir=deploy output:crd:artifacts:config=deploy/crds
head -n 14 deploy/role_binding.yaml > deploy/role.yaml.bak
cat deploy/role.yaml >> deploy/role.yaml.bak
rm deploy/role.yaml && mv deploy/role.yaml.bak deploy/role.yaml
/data/k8s-yaml/rocketmq-operator/bin/controller-gen object:headerFile="hack/boilerplate.go.txt" paths="./..."
/usr/local/go/src/net/cgo_linux.go:12:8: no such package located
Error: not all generators ran successfully
run `controller-gen object:headerFile=hack/boilerplate.go.txt paths=./... -w` to see all available markers, or `controller-gen object:headerFile=hack/boilerplate.go.txt paths=./... -h` for usage
make: *** [generate] Error 1

解決方案:

$ yum install gcc

go mod 錯誤

報(bào)錯信息:

# 執(zhí)行 make docker-build IMG=${IMAGE_URL} 報(bào)錯

go: creating new go.mod: module tmp
Downloading sigs.k8s.io/controller-tools/cmd/controller-gen@v0.7.0
go get: added sigs.k8s.io/controller-tools v0.7.0
/data/build/rocketmq-operator/bin/controller-gen rbac:roleName=rocketmq-operator crd:generateEmbeddedObjectMeta=true webhook paths="./..." output:dir=deploy output:crd:artifacts:config=deploy/crds
Error: err: exit status 1: stderr: go: github.com/google/uuid@v1.1.2: missing go.sum entry; to add it:
        go mod download github.com/google/uuid

Usage:
  controller-gen [flags]

......

output rules (optionally as output:<generator>:...)

+output:artifacts[:code=<string>],config=<string>  package  outputs artifacts to different locations, depending on whether they're package-associated or not.   
+output:dir=<string>                               package  outputs each artifact to the given directory, regardless of if it's package-associated or not.      
+output:none                                       package  skips outputting anything.                                                                          
+output:stdout                                     package  outputs everything to standard-out, with no separation.                                             

run `controller-gen rbac:roleName=rocketmq-operator crd:generateEmbeddedObjectMeta=true webhook paths=./... output:dir=deploy output:crd:artifacts:config=deploy/crds -w` to see all available markers, or `controller-gen rbac:roleName=rocketmq-operator crd:generateEmbeddedObjectMeta=true webhook paths=./... output:dir=deploy output:crd:artifacts:config=deploy/crds -h` for usage
make: *** [manifests] Error 1

解決方案:

go mod tidy

結(jié)束語

本文只是初步介紹了 RocketMQ 在 K8s 平臺上的單 Master 節(jié)點(diǎn)和多 Master 多 Slave-異步復(fù)制模式部署的方法,屬于入門級。

在生產(chǎn)環(huán)境中還需要根據(jù)實(shí)際環(huán)境優(yōu)化配置,例如調(diào)整集群的 Broker 數(shù)量、Master 和 Slave 的分配、性能調(diào)優(yōu)、配置優(yōu)化等。

本文由博客一文多發(fā)平臺 OpenWrite 發(fā)布!文章來源地址http://www.zghlxwxcb.cn/news/detail-414208.html

到了這里,關(guān)于使用?KubeSphere?部署高可用?RocketMQ?集群的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【微服務(wù)部署】十、使用Docker Compose搭建高可用Redis集群

    ??現(xiàn)如今,業(yè)務(wù)系統(tǒng)對于緩存Redis的依賴似乎是必不可少的,我們可以在各種各樣的系統(tǒng)中看到Redis的身影??紤]到系統(tǒng)運(yùn)行的穩(wěn)定性,Redis的應(yīng)用和MySQL數(shù)據(jù)庫一樣需要做到高可用部署。 一、Redis 的多種高可用方案 常見的Redis的高可用方案有以下幾種: Redis Replication(主從

    2024年02月07日
    瀏覽(24)
  • 使用Docker Swarm部署RabbitMQ+HAProxy高可用集群(三節(jié)點(diǎn)-鏡像模式)

    使用Docker Swarm部署RabbitMQ+HAProxy高可用集群(三節(jié)點(diǎn)-鏡像模式)

    當(dāng)前規(guī)劃中,只啟動一個HAProxy服務(wù),主要用來做RabbitMQ節(jié)點(diǎn)的負(fù)載均衡和代理,但是HAProxy可能會出現(xiàn)單點(diǎn)故障,后續(xù)需要啟動多個HAProxy節(jié)點(diǎn),然后結(jié)合Keepalived來進(jìn)行 設(shè)置虛擬IP 做故障轉(zhuǎn)移 節(jié)點(diǎn)名稱 節(jié)點(diǎn)主機(jī)名 IP地址 角色 運(yùn)行服務(wù) cluster01 cluster01 192.168.12.48 Docker Swarm Mana

    2024年02月14日
    瀏覽(20)
  • Apache RocketMQ docker單機(jī)部署以及docker高可用部署方案

    Apache RocketMQ可以通過Docker進(jìn)行單機(jī)部署和高可用部署。下面我將為你提供兩種方案的概述。 單機(jī)部署方案 : 1、拉取RocketMQ鏡像: 首先,從Docker Hub上拉取RocketMQ官方提供的鏡像。你可以使用以下命令來拉取最新版本的RocketMQ鏡像: 2、創(chuàng)建網(wǎng)絡(luò): 在Docker中創(chuàng)建一個網(wǎng)絡(luò),用于

    2024年02月16日
    瀏覽(20)
  • 使用rancher的rke2部署高可用的k8s集群

    目錄 1、linux環(huán)境初始化及內(nèi)核調(diào)優(yōu) (1)設(shè)置主機(jī)名、關(guān)閉防火墻、配置集群ip映射、關(guān)閉selinux (2)禁用linux的透明大頁、標(biāo)準(zhǔn)大頁 (3)禁用swap分區(qū) (4)配置集群時間同步,同步阿里云服務(wù)器時間 (5)linux內(nèi)核參數(shù)調(diào)優(yōu) (6)配置ipvs 2、rke2安裝k8s (1)主節(jié)點(diǎn)安裝執(zhí)行

    2023年04月11日
    瀏覽(26)
  • 云原生|kubernetes|centos7下的kubeadm部署的集群內(nèi)在線部署kubesphere(外部etcd)

    云原生|kubernetes|centos7下的kubeadm部署的集群內(nèi)在線部署kubesphere(外部etcd)

    本文將主要就在centos7操作系統(tǒng)下已有的一個利用kubeadm部署的集群內(nèi)在線安裝kubesphere做一個介紹,該kubernetes集群是使用的etcd外部集群。 kubernetes集群的搭建本文不做過多介紹,具體的搭建流程見我的博客: 云原生|kubernetes|kubeadm部署高可用集群(一)使用外部etcd集群_kubeadm

    2024年02月11日
    瀏覽(23)
  • m1使用VMware安裝CentOS7并部署k8s高可用集群

    m1使用VMware安裝CentOS7并部署k8s高可用集群

    項(xiàng)目 版本 處理器 Apple M1 Max 操作系統(tǒng) macOS Ventura 13.0 虛擬機(jī)應(yīng)用 VMware Fusion 專業(yè)版 12.2.3 虛擬機(jī)操作系統(tǒng) CentOS Linux 7 (AltArch) 容器運(yùn)行時版本 docker 1.13.1 集群版本 Kubernetes 1.21.0 2.1 安裝 VMware 安裝包下載地址:VMware Fusion 專業(yè)版 12.2.3 應(yīng)用許可證問題請自行解決 2.2 安裝虛擬機(jī) 2.

    2024年02月02日
    瀏覽(25)
  • 淺談sealos及使用sealos4.0部署Kubernetes(K8s)高可用集群

    淺談sealos及使用sealos4.0部署Kubernetes(K8s)高可用集群

    sealos 是以kubernetes為內(nèi)核的云操作系統(tǒng)發(fā)行版 早期單機(jī)操作系統(tǒng)也是分層架構(gòu),后來才演變成 linux windows這種內(nèi)核架構(gòu),云操作系統(tǒng)從容器誕生之日起分層架構(gòu)被擊穿,未來也會朝著高內(nèi)聚的\\\"云內(nèi)核\\\"架構(gòu)遷移 從現(xiàn)在開始,把你數(shù)據(jù)中心所有機(jī)器想象成一臺\\\"抽象\\\"的超級計(jì)算機(jī)

    2024年02月07日
    瀏覽(98)
  • RocketMQ集群部署

    RocketMQ集群部署

    兩臺服務(wù)器,每臺一個nameserver構(gòu)成集群,broker集群雙主雙從。 主機(jī) 容器名稱 IP 與宿主機(jī)的端口映射 ODL控制器會同過vip通道10909去連接mq。 主從通過10912端口同步 這兩個地址是通過-2 +1 在配置文件端口10911基礎(chǔ)上計(jì)算得出 兩個宿主機(jī)上都有docker,并且創(chuàng)建了網(wǎng)橋docker-br0。

    2024年02月09日
    瀏覽(22)
  • 基于kubesphere的k8s環(huán)境部署三節(jié)點(diǎn)的rook-ceph集群

    基于kubesphere的k8s環(huán)境部署三節(jié)點(diǎn)的rook-ceph集群

    這次實(shí)驗(yàn)記錄的是使用虛擬機(jī)搭建的使用了三個計(jì)算存儲節(jié)點(diǎn)的rook-ceph集群,模擬真實(shí)的使用場景。補(bǔ)充之前發(fā)的只有單點(diǎn)的部署方式。 Rook is an open source cloud-native storage orchestrator, providing the platform, framework, and support for Ceph storage to natively integrate with cloud-native environments. Ro

    2024年02月11日
    瀏覽(29)
  • 【RocketMQ】RocketMQ 5.1.0版本Proxy集群模式部署實(shí)踐

    【RocketMQ】RocketMQ 5.1.0版本Proxy集群模式部署實(shí)踐

    為了支持長遠(yuǎn)的云原生發(fā)展,RocketMQ引入了一個全新的模塊:Proxy,官方對RocketMQ客戶端提供了獨(dú)立的開源項(xiàng)目:https://github.com/apache/rocketmq-clients,如果要使用這個新的客戶端,必須要使用Proxy作為endpoint。 Proxy有兩種搭建方式: LOCAL:本地模式,顧名思義,通過追加參數(shù),在

    2024年02月01日
    瀏覽(31)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包