国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

在 K8s 集群上部署 RabbitMQ 實戰(zhàn)

這篇具有很好參考價值的文章主要介紹了在 K8s 集群上部署 RabbitMQ 實戰(zhàn)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

作者:老Z,云原生愛好者,目前專注于云原生運維,KubeSphere Ambassador。

前言

知識點

  • 定級:入門級
  • RabbitMQ 單節(jié)點安裝部署
  • RabbitMQ 集群安裝部署
  • GitOps 運維思想

演示服務(wù)器配置

主機名 IP CPU 內(nèi)存 系統(tǒng)盤 數(shù)據(jù)盤 用途
zdeops-master 192.168.9.9 2 4 40 200 Ansible 運維控制節(jié)點
ks-k8s-master-0 192.168.9.91 4 16 40 200+200 KubeSphere/k8s-master/k8s-worker/Ceph
ks-k8s-master-1 192.168.9.92 4 16 40 200+200 KubeSphere/k8s-master/k8s-worker/Ceph
ks-k8s-master-2 192.168.9.93 4 16 40 200+200 KubeSphere/k8s-master/k8s-worker/Ceph
storage-node-0 192.168.9.95 2 8 40 200+200 ElasticSearch/GlusterFS
storage-node-0 192.168.9.96 2 8 40 200+200 ElasticSearch/GlusterFS
storage-node-0 192.168.9.97 2 8 40 200+200 ElasticSearch/GlusterFS
harbor 192.168.9.89 2 8 40 200 Harbor
合計 8 22 84 320 2800

演示環(huán)境涉及軟件版本信息

  • 操作系統(tǒng):CentOS-7.9-x86_64
  • Ansible:2.8.20
  • KubeSphere:3.3.0
  • Kubernetes:v1.24.1
  • Rook:v1.9.7
  • Ceph: v16.2.9
  • GlusterFS:9.5.1
  • ElasticSearch:7.17.5
  • Harbor:2.5.1
  • RabbitMQ:3.9.22
  • RabbitMQ Cluster Operator:1.14.0

簡介

RabbitMQ 單節(jié)點如何在 K8s 集群上部署?RabbitMQ 集群如何在 K8s 集群上部署?60分鐘帶你實戰(zhàn)入門。

單節(jié)點 RabbitMQ 部署

思路梳理

  • StatefulSet
  • Headless Service:內(nèi)部服務(wù)用
  • External Service:外部管理用
  • Secrets:管理用戶名和密碼
  • Image:DockerHub 官方提供的 rabbitmq:3.9.22-management(帶 management 插件)

準(zhǔn)備離線鏡像

此過程為可選項,離線內(nèi)網(wǎng)環(huán)境可用,如果不配置內(nèi)網(wǎng)鏡像,后續(xù)的資源配置清單中注意更改容器的 image 為默認(rèn)值。

在一臺能同時訪問互聯(lián)網(wǎng)和內(nèi)網(wǎng) Harbor 倉庫的服務(wù)器上進(jìn)行下面的操作。

  • 下載鏡像
docker pull rabbitmq:3.9.22-management
  • 重新打 tag
docker tag rabbitmq:3.9.22-management registry.zdevops.com.cn/library/rabbitmq:3.9.22-management
  • 推送到私有鏡像倉庫
docker push registry.zdevops.com.cn/library/rabbitmq:3.9.22-management
  • 清理臨時鏡像
docker rmi rabbitmq:3.9.22-management
docker rmi registry.zdevops.com.cn/library/rabbitmq:3.9.22-management

資源配置清單

  • rabbitmq-secret.yaml
---
kind: Secret
apiVersion: v1
metadata:
  name: rabbitmq-secret
  namespace: zdevops
data:
  pass: UEA4OHcwcmQ=
  user: YWRtaW4=
type: Opaque
  • rabbitmq-sts.yaml
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: rabbitmq
  namespace: zdevops
  labels:
    app: rabbitmq
spec:
  replicas: 1
  selector:
    matchLabels:
      app: rabbitmq
  template:
    metadata:
      creationTimestamp: null
      labels:
        app: rabbitmq
    spec:
      volumes:
        - name: host-time
          hostPath:
            path: /etc/localtime
            type: ''
      containers:
        - name: rabbitmq
          image: 'registry.zdevops.com.cn/library/rabbitmq:3.9.22-management'
          ports:
            - name: tcp-5672
              containerPort: 5672
              protocol: TCP
            - name: http-15672
              containerPort: 15672
              protocol: TCP
          env:
            - name: RABBITMQ_DEFAULT_USER
              valueFrom:
                secretKeyRef:
                  name: rabbitmq-secret
                  key: user
            - name: RABBITMQ_DEFAULT_PASS
              valueFrom:
                secretKeyRef:
                  name: rabbitmq-secret
                  key: pass
          resources:
            limits:
              cpu: '2'
              memory: 4000Mi
            requests:
              cpu: 100m
              memory: 500Mi
          volumeMounts:
            - name: host-time
              readOnly: true
              mountPath: /etc/localtime
  serviceName: rabbitmq-headless

---
apiVersion: v1
kind: Service
metadata:
  name: rabbitmq-headless
  namespace: zdevops
  labels:
    app: rabbitmq
spec:
  ports:
    - name: tcp-rabbitmq-5672
      protocol: TCP
      port: 5672
      targetPort: 5672
  selector:
    app: rabbitmq
  clusterIP: None
  type: ClusterIP
  • rabbitmq-external.yaml
---
apiVersion: v1
kind: Service
metadata:
  name: rabbitmq-external
  namespace: zdevops
  labels:
    app: rabbitmq-external
spec:
  ports:
    - name: http-rabbitmq-external
      protocol: TCP
      port: 15672
      targetPort: 15672
      nodePort: 31672
  selector:
    app: rabbitmq
  type: NodePort

GitOps

在運維開發(fā)服務(wù)器上操作

# 在已有代碼倉庫創(chuàng)建 rabbitmq/single 目錄
[root@zdevops-master k8s-yaml]# mkdir -p rabbitmq/single

# 編輯資源配置清單
[root@zdevops-master k8s-yaml]# vi rabbitmq/single/rabbitmq-secret.yaml
[root@zdevops-master k8s-yaml]# vi rabbitmq/single/rabbitmq-sts.yaml
[root@zdevops-master k8s-yaml]# vi rabbitmq/single/rabbitmq-external.yaml

# 提交 Git
[root@zdevops-master k8s-yaml]# git add rabbitmq
[root@zdevops-master k8s-yaml]# git commit -am '添加rabbitmq 單節(jié)點資源配置清單'
[root@zdevops-master k8s-yaml]# git push

部署資源

在運維管理服務(wù)器上操作

  • 更新鏡像倉庫代碼
[root@zdevops-master k8s-yaml]# git pull
  • 部署資源
[root@zdevops-master k8s-yaml]# kubectl apply -f rabbitmq/single/

驗證

  • Secret
[root@zdevops-master k8s-yaml]# kubectl get secret -n zdevops
NAME              TYPE     DATA   AGE
rabbitmq-secret   Opaque   2      8s
  • StatefulSet
[root@zdevops-master k8s-yaml]# kubectl get sts -o wide -n zdevops
NAME       READY   AGE   CONTAINERS   IMAGES
rabbitmq   1/1     25s   rabbitmq     registry.zdevops.com.cn/library/rabbitmq:3.9.22-management
  • Pods
[root@zdevops-master k8s-yaml]# kubectl get pods -o wide -n zdevops
NAME         READY   STATUS    RESTARTS   AGE   IP             NODE              NOMINATED NODE   READINESS GATES
rabbitmq-0   1/1     Running   0          26s   10.233.87.13   ks-k8s-master-1   <none>           <none>
  • Service
[root@zdevops-master k8s-yaml]# kubectl get svc -o wide -n zdevops
NAME                TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)           AGE   SELECTOR
rabbitmq-external   NodePort    10.233.4.224   <none>        15672:31672/TCP   36s   app=rabbitmq
rabbitmq-headless   ClusterIP   None           <none>        5672/TCP          36s   app=rabbitmq
  • 圖形化管理界面

k8s部署rabbitmq,k8s,容器平臺,kubesphere,云計算

清理資源

  • 清理 StatefulSet
[root@zdevops-master k8s-yaml]# kubectl delete sts rabbitmq -n zdevops
  • 清理服務(wù)
[root@zdevops-master k8s-yaml]# kubectl delete svc rabbitmq-external rabbitmq-headless -n zdevops

集群模式 RabbitMQ 部署

思路梳理

使用官方提供的 RabbitMQ Cluster Operator for Kubernetes。

Open source RabbitMQ Cluster Kubernetes Operator by VMware。

官方文檔快速部署

官方提供了快速部署的例子,只需要兩步,這里我們僅作參考,后面我們參考內(nèi)網(wǎng)離線鏡像部署的方案。

  • 部署 RabbitMQ Cluster Operator
kubectl apply -f https://github.com/rabbitmq/cluster-operator/releases/latest/download/cluster-operator.yml
  • 部署 RabbitMQ Cluster
kubectl apply -f https://raw.githubusercontent.com/rabbitmq/cluster-operator/main/docs/examples/hello-world/rabbitmq.yaml

準(zhǔn)備離線鏡像

此過程為可選項,離線內(nèi)網(wǎng)環(huán)境可用,如果不配置內(nèi)網(wǎng)鏡像,后續(xù)的資源配置清單中注意更改容器的 image 為默認(rèn)值。

在一臺能同時訪問互聯(lián)網(wǎng)和內(nèi)網(wǎng) Harbor 倉庫的服務(wù)器上進(jìn)行下面的操作。

  • 在 Harbor 中創(chuàng)建項目
curl -u "admin:Harbor12345" -X POST -H "Content-Type: application/json" https://registry.zdevops.com.cn/api/v2.0/projects -d '{ "project_name": "rabbitmqoperator", "public": true}'
  • 下載鏡像
docker pull rabbitmqoperator/cluster-operator:1.14.0
  • 重新打 tag
docker tag rabbitmqoperator/cluster-operator:1.14.0 registry.zdevops.com.cn/rabbitmqoperator/cluster-operator:1.14.0
  • 推送到私有鏡像倉庫
docker push registry.zdevops.com.cn/rabbitmqoperator/cluster-operator:1.14.0
  • 清理臨時鏡像
docker rmi rabbitmqoperator/cluster-operator:1.14.0
docker rmi registry.zdevops.com.cn/rabbitmqoperator/cluster-operator:1.14.0

資源配置清單

  • 通過官網(wǎng)獲取 RabbitMQ Cluster Operator 部署資源配置清單「cluster-operator.yml」
wget https://github.com/rabbitmq/cluster-operator/releases/latest/download/cluster-operator.yml
  • 修改 RabbitMQ Cluster Operator image 為內(nèi)網(wǎng)鏡像
sed -i 's#rabbitmqoperator#registry.zdevops.com.cn/rabbitmqoperator#g' cluster-operator.yml
  • RabbitMQ Cluster 部署資源清單「rabbitmq-cluster.yaml」
apiVersion: rabbitmq.com/v1beta1
kind: RabbitmqCluster
metadata:
  namespace: zdevops
  name: rabbitmq-cluster
  labels:
    app: rabbitmq-cluster
spec:
  replicas: 3
  image: registry.zdevops.com.cn/library/rabbitmq:3.9.22-management
  resources:
    limits:
      cpu: 2
      memory: 4Gi
    requests:
      cpu: 100m
      memory: 500Mi
  rabbitmq:
    additionalConfig: |
      default_user=admin
      default_pass=P@88w0rd

更多配置參數(shù)和配置示例,請參考 官方文檔

  • 管理頁面的外部訪問服務(wù) rabbitmq-cluster-external.yaml
---
apiVersion: v1
kind: Service
metadata:
  name: rabbitmq-cluster-external
  namespace: zdevops
  labels:
    app: rabbitmq-cluster-external
spec:
  ports:
    - name: management
      protocol: TCP
      port: 15672
      targetPort: 15672
      nodePort: 31672
  selector:
    app.kubernetes.io/name: rabbitmq-cluster
  type: NodePort

GitOps

在運維開發(fā)服務(wù)器上操作

# 在已有代碼倉庫創(chuàng)建 rabbitmq/cluster 目錄
[root@zdevops-master k8s-yaml]# mkdir -p rabbitmq/cluster

# 編輯資源配置清單
[root@zdevops-master k8s-yaml]# vi rabbitmq/cluster/cluster-operator.yml
[root@zdevops-master k8s-yaml]# vi rabbitmq/cluster/rabbitmq-cluster.yaml
[root@zdevops-master k8s-yaml]# vi rabbitmq/cluster/rabbitmq-cluster-external.yaml

# 提交 Git
[root@zdevops-master k8s-yaml]# git add rabbitmq/cluster
[root@zdevops-master k8s-yaml]# git commit -am '添加 rabbitmq 集群模式部署資源配置清單'
[root@zdevops-master k8s-yaml]# git push

部署資源

在運維管理服務(wù)器上操作

  • `更新鏡像倉庫代碼
[root@zdevops-master k8s-yaml]# git pull
  • 部署 RabbitMQ Cluster Operator
[root@zdevops-master k8s-yaml]# kubectl apply -f rabbitmq/cluster/cluster-operator.yml
  • 部署 RabbitMQ Cluster
[root@zdevops-master k8s-yaml]# kubectl apply -f rabbitmq/cluster/rabbitmq-cluster.yaml
  • 部署管理頁面外部訪問服務(wù)
[root@zdevops-master k8s-yaml]# kubectl apply -f rabbitmq/cluster/rabbitmq-cluster-external.yaml

驗證

  • RabbitMQ Cluster Operator Deployment
[root@zdevops-master k8s-yaml]# kubectl get deployments -n rabbitmq-system -o wide
NAME                        READY   UP-TO-DATE   AVAILABLE   AGE    CONTAINERS   IMAGES                                                             SELECTOR
rabbitmq-cluster-operator   1/1     1            1           107m   operator     registry.zdevops.com.cn/rabbitmqoperator/cluster-operator:1.14.0   app.kubernetes.io/name=rabbitmq-cluster-operator
  • RabbitmqClusters
[root@zdevops-master k8s-yaml]# kubectl get rabbitmqclusters -n zdevops
NAME               ALLREPLICASREADY   RECONCILESUCCESS   AGE
rabbitmq-cluster   False              Unknown            23s
  • StatefulSet
[root@zdevops-master k8s-yaml]# kubectl get sts -o wide -n zdevops
NAME                      READY   AGE   CONTAINERS   IMAGES
rabbitmq-cluster-server   3/3     74s   rabbitmq     registry.zdevops.com.cn/library/rabbitmq:3.9.22-management
  • Pods
[root@zdevops-master k8s-yaml]# kubectl get pods -o wide -n zdevops
NAME                        READY   STATUS    RESTARTS   AGE   IP              NODE              NOMINATED NODE   READINESS GATES
rabbitmq-cluster-server-0   1/1     Running   0          84s   10.233.116.26   ks-k8s-master-2   <none>           <none>
rabbitmq-cluster-server-1   1/1     Running   0          83s   10.233.117.28   ks-k8s-master-0   <none>           <none>
rabbitmq-cluster-server-2   1/1     Running   0          82s   10.233.87.31    ks-k8s-master-1   <none>           <none>
  • Services
[root@zdevops-master k8s-yaml]# kubectl get svc -n zdevops -o wide
NAME                        TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)                        AGE    SELECTOR
rabbitmq-cluster            ClusterIP   10.233.56.153   <none>        15692/TCP,5672/TCP,15672/TCP   107s   app.kubernetes.io/name=rabbitmq-cluster
rabbitmq-cluster-external   NodePort    10.233.63.84    <none>        15672:31672/TCP                74m    app.kubernetes.io/name=rabbitmq-cluster
rabbitmq-cluster-nodes      ClusterIP   None            <none>        4369/TCP,25672/TCP             107s   app.kubernetes.io/name=rabbitmq-cluster
  • 圖形化管理界面

k8s部署rabbitmq,k8s,容器平臺,kubesphere,云計算

從管理界面中可以看到一個三節(jié)點的集群

清理資源

  • 清理 RabbitmqClusters
[root@zdevops-master k8s-yaml]# kubectl delete rabbitmqclusters rabbitmq-cluster -n zdevops
  • 清理管理頁面外部服務(wù)
[root@zdevops-master k8s-yaml]# kubectl delete svc rabbitmq-cluster-external -n zdevops

結(jié)束語

本系列文檔是我在云原生技術(shù)領(lǐng)域的學(xué)習(xí)和運維實踐的手記,用輸出倒逼輸入是一種高效的學(xué)習(xí)方法,能夠快速積累經(jīng)驗和提高技術(shù),只有把學(xué)到的知識寫出來并能夠讓其他人理解,才能說明真正掌握了這項知識。

本系列文檔內(nèi)容涵蓋 (但不限于) 以下技術(shù)領(lǐng)域:

  • KubeSphere
  • Kubernetes
  • Ansible
  • 自動化運維
  • CNCF 技術(shù)棧

如果你喜歡本文,請分享給你的小伙伴!

Get 文檔

  • Github:https://github.com/devops/z-notes
  • Gitee:https://gitee.com/zdevops/z-notes
  • 知乎:https://www.zhihu.com/people/zdevops/

Get 代碼

  • Github:https://github.com/devops/ansible-zdevops
  • Gitee:https://gitee.com/zdevops/ansible-zdevops

Get 視頻 B 站

  • 老 Z 手記 https://space.bilibili.com/1039301316

本文由博客一文多發(fā)平臺 OpenWrite 發(fā)布!文章來源地址http://www.zghlxwxcb.cn/news/detail-794661.html

到了這里,關(guān)于在 K8s 集群上部署 RabbitMQ 實戰(zhàn)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 使用kubekey部署k8s集群和kubesphere、在已有k8s集群上部署kubesphere

    環(huán)境: centos 7.6、k8s 1.22.17、kubesphere v3.3.0 本篇以kubesphere v3.3.0版本講解。 kubesphere 愿景是打造一個以 kubernetes 為內(nèi)核的云原生分布式操作系統(tǒng),它的架構(gòu)可以非常方便地使第三方應(yīng)用與云原生生態(tài)組件進(jìn)行即插即用(plug-and-play)的集成,支持云原生應(yīng)用在多云與多集群的統(tǒng)一

    2024年02月04日
    瀏覽(35)
  • K8s 部署 CNI 網(wǎng)絡(luò)組件+k8s 多master集群部署+負(fù)載均衡

    K8s 部署 CNI 網(wǎng)絡(luò)組件+k8s 多master集群部署+負(fù)載均衡

    ------------------------------ 部署 CNI 網(wǎng)絡(luò)組件 ------------------------------ ---------- 部署 flannel ---------- K8S 中 Pod 網(wǎng)絡(luò)通信: ●Pod 內(nèi)容器與容器之間的通信 在同一個 Pod 內(nèi)的容器(Pod 內(nèi)的容器是不會跨宿主機的)共享同一個網(wǎng)絡(luò)命名空間,相當(dāng)于它們在同一臺機器上一樣,可以用 lo

    2024年02月08日
    瀏覽(23)
  • K8S二進(jìn)制部署詳解,一文教會你部署高可用K8S集群

    Pod網(wǎng)段: 10.0.0.0/16 Service網(wǎng)段: 10.255.0.0/16 集群角色 ip 主機名 安裝組件 控制節(jié)點 10.10.0.10 master01 apiserver、controller-manager、scheduler、etcd、docker、keepalived、nginx 控制節(jié)點 10.10.0.11 master02 apiserver、controller-manager、scheduler、etcd、docker、keepalived、nginx 控制節(jié)點 10.10.0.12 master03 apiser

    2024年04月28日
    瀏覽(29)
  • K8S—集群部署

    K8S—集群部署

    ????????K8s是容器集群管理系統(tǒng),是一個開源的平臺,可以實現(xiàn)容器集群的自動化部署、自動擴(kuò)展容維護(hù)等功能,k8s的原名是kubernetes。 1.1、K8s的功能: 有大量跨主機的容器需要管理 快速部署應(yīng)用快速擴(kuò)展應(yīng)用 無縫對接新的應(yīng)用功能 節(jié)省資源,優(yōu)化硬件資源的使用情況

    2024年02月12日
    瀏覽(24)
  • 部署K8S集群

    目錄 一、環(huán)境搭建 1、準(zhǔn)備環(huán)境 2、安裝master節(jié)點 3、安裝k8s-master上的node 4、安裝配置k8s-node1節(jié)點 5、安裝k8s-node2節(jié)點 6、為所有node節(jié)點配置flannel網(wǎng)絡(luò) 7、配置docker開啟加載防火墻規(guī)則允許轉(zhuǎn)發(fā)數(shù)據(jù) 二、k8s常用資源管理 1、創(chuàng)建一個pod 2、pod管理 1、準(zhǔn)備環(huán)境 計算機說明,建議

    2024年02月13日
    瀏覽(21)
  • K8s 集群部署

    K8s 集群部署

    學(xué)習(xí)了黑馬K8s,首先跟著視頻部署K8s,寫下筆記 轉(zhuǎn)至 原文鏈接 整合黑馬老師筆記 目前生產(chǎn)部署Kubernetes集群主要有兩種方式: 一 kubeadm Kubeadm是一個K8s部署工具,提供kubeadm init和kubeadm join,用于快速部署Kubernetes集群。 二 進(jìn)制包 從github下載發(fā)行版的二進(jìn)制包,手動部署每個

    2024年02月04日
    瀏覽(23)
  • Prometheus+Grafana監(jiān)控K8S集群(基于K8S環(huán)境部署)

    Prometheus+Grafana監(jiān)控K8S集群(基于K8S環(huán)境部署)

    1、服務(wù)器及K8S版本信息: IP地址 主機名稱 角色 K8S版本 16.32.15.200 master-1 Master節(jié)點 v1.23.0 16.32.15.201 node-1 Node節(jié)點 v1.23.0 16.32.15.202 node-2 Node節(jié)點 v1.23.0 2、部署組件版本: 序號 名稱 版本 作用 1 Prometheus v2.33.5 收集、存儲和處理指標(biāo)數(shù)據(jù) 2 Node_exporter v0.16.0 采集服務(wù)器指標(biāo),如CP

    2024年02月04日
    瀏覽(34)
  • yum部署kubernetes(k8s)集群、k8s常用資源管理

    目錄 一、環(huán)境搭建 1、準(zhǔn)備環(huán)境 1)計算機說明,建議系統(tǒng)版本7.4或者7.6 2)修改所有主機的計算機名設(shè)置host文件 ?2、安裝master節(jié)點 1)安裝etcd配置etcd 2)安裝k8s-master節(jié)點 3)配置apiserver 4)配置controller和scheduler 5)啟動k8s服務(wù) 3、安裝k8s-master上的node 1)安裝node 2)配置kube

    2024年02月13日
    瀏覽(35)
  • 一鍵部署k8s集群

    一鍵部署k8s集群

    機器至少配置 序號 類型 主機名 IP 備注(CPU/內(nèi)存/硬盤) 1 Mater k8s-api.bcs.local 192.168.46.128 8C16G,100G 2 Node1 node-192-168-46-129 192.168.46.129 4C8G,100G 3 Node2 node-192-168-46-130 192.168.46.130 4C8G,100G 4 Node3 node-192-168-46-131 192.168.46.131 4C8G,100G 軟件需求 需求項 具體要求 檢查命令 操作系統(tǒng) Cen

    2024年02月09日
    瀏覽(17)
  • k8s 集群部署嘗試

    k8s 集群部署嘗試

    K8S 部署方式有很多,有的方式不太友好,需要注意很多關(guān)鍵點,有的方式對小白比較友好,部署簡單方便且高效 使用 二進(jìn)制源碼包的方式部署會比較麻煩,大概分為如下幾步: 獲取源碼包 部署在 master 節(jié)點和 worker 節(jié)點上 啟動相應(yīng)節(jié)點的關(guān)鍵服務(wù) master 節(jié)點上 api-server ,分

    2024年02月10日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包