国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Yum 部署K8S集群

這篇具有很好參考價值的文章主要介紹了Yum 部署K8S集群。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

目錄

1、準(zhǔn)備環(huán)境 (溫馨提示:盡量一次完成集群)

2.安裝master節(jié)點(diǎn)

3、安裝k8s-master上的node

4、安裝配置k8s-node1節(jié)點(diǎn)

5、安裝k8s-node2節(jié)點(diǎn)

6、為所有node節(jié)點(diǎn)配置flannel網(wǎng)絡(luò)

7、配置docker開啟加載防火墻規(guī)則允許轉(zhuǎn)發(fā)數(shù)據(jù)


一. 環(huán)境搭建

1、準(zhǔn)備環(huán)境 (溫馨提示:盡量一次完成集群)

集群很容易斷網(wǎng)

1)? 計算機(jī)說明,建議系統(tǒng)版本7.4或者7.6

主機(jī)名 IP地址 角色 硬件

k8s-master

192.168.50.53 master+node

Etcd、apiserver、controlor-manager、scheduler、kube-proxy、docker、registry

k8s-node1 192.168.50.50 node

Kubletel、kube-proxy、docker

k8s-node2 192.168.50.51 node

Kubletel、kube-proxy、docker

2)? 修改主機(jī)的計算機(jī)名設(shè)置host文件

[root@localhost ~]# hostname k8s-master

[root@localhost ~]# bash

[root@k8s-master ~]# vim /etc/hosts

192.168.50.53 k8s-master
192.168.50.50 k8s-node1
192.168.50.51 k8s-node2
~???????????????????????

[root@k8s-master ~]# scp /etc/hosts 192.168.50.51:/etc

[root@k8s-master ~]# scp /etc/hosts 192.168.50.50:/etc

2.安裝master節(jié)點(diǎn)

1)安裝etcd配置etcd

[root@k8s-master ~]# yum -y install etcd

[root@k8s-master ~]# cp /etc/etcd/etcd.conf ?/etc/etcd/etcd.conf.bak

[root@k8s-master ~]# vim /etc/etcd/etcd.conf

6 ETCD_LISTEN_CLIENT_URLS="http://0.0.0.0:2379"

21 ETCD_ADVERTISE_CLIENT_URLS="http://192.168.50.53:2379"

[root@k8s-master ~]# systemctl start etcd

[root@k8s-master ~]# systemctl enable etcd

Created symlink from /etc/systemd/system/multi-user.target.wants/etcd.service to /usr/lib/systemd/system/etcd.service.

2)安裝k8s-master節(jié)點(diǎn)

[root@k8s-master ~]# yum -y install kubernetes-master.x86_64

3)配置apiserver

[root@k8s-master ~]# vim /etc/kubernetes/apiserver

??1 ###

??2 # kubernetes system config

??3 #

??4 # The following values are used to configure the kube-apiserver

??5 #

??6

??7 # The address on the local server to listen to.

??8 KUBE_API_ADDRESS="--insecure-bind-address=0.0.0.0"

??9

?10 # The port on the local server to listen on.

?11 KUBE_API_PORT="--port=8080"

?12

?13 # Port minions listen on

?14 KUBELET_PORT="--kubelet-port=10250"

?15

?16 # Comma separated list of nodes in the etcd cluster

?17 KUBE_ETCD_SERVERS="--etcd-servers=http://192.168.50.53:2379"

?18

?19 # Address range to use for services

?20 KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16"

?21

?22 # default admission control policies

23KUBE_ADMISSION_CONTROL="admissioncontrol=NamespaceLifecycle,NamespaceExists,LimitRanger,Security ???ContextDeny,ResourceQuota"

?24

?25 # Add your own!

?26 KUBE_API_ARGS=""

4) 配置controller和scheduler

[root@k8s-master ~]# vim /etc/kubernetes/config

?22 KUBE_MASTER="--master=http://192.168.50.53:8080"

啟動k8s服務(wù)

[root@k8s-master ~]# systemctl start kube-apiserver.service

[root@k8s-master ~]# systemctl start kube-controller-manager.service

[root@k8s-master ~]# systemctl start kube-scheduler.service

[root@k8s-master ~]# systemctl enable kube-apiserver.service

Created symlink from /etc/systemd/system/multi-user.target.wants/kube-apiserver.service to /usr/lib/systemd/system/kube-apiserver.service.

[root@k8s-master ~]# systemctl enable kube-controller-manager.service

Created symlink from /etc/systemd/system/multi-user.target.wants/kube-controller-manager.service to /usr/lib/systemd/system/kube-controller-manager.service.

[root@k8s-master ~]# systemctl enable kube-scheduler.server

Failed to execute operation: No such file or directory

[root@k8s-master ~]# systemctl enable kube-scheduler.service

Created symlink from /etc/systemd/system/multi-user.target.wants/kube-scheduler.service to /usr/lib/systemd/system/kube-scheduler.service.

檢查節(jié)點(diǎn)是否監(jiān)控

[root@k8s-master ~]# kubectl get componentstatus

NAME ????????????????STATUS ???MESSAGE ????????????ERROR

etcd-0 ??????????????Healthy ??{"health":"true"} ??

controller-manager ??Healthy ??ok ?????????????????

scheduler ???????????Healthy ??ok ?????????????????

3、安裝k8s-master上的node

1)安裝node

[root@k8s-master ~]# yum -y install kubernetes node.x86_64

2)配置kubelet

[root@k8s-master ~]# vim /etc/kubernetes/kubelet

5 KUBELET_ADDRESS="--address=192.168.50.53"

?11 KUBELET_HOSTNAME="--hostname-override=k8s-master"

?14 KUBELET_API_SERVER="--api-servers=http://192.168.50.53:8080"

3)啟動kubelet啟動自動啟動docker服務(wù)

[root@k8s-master ~]# systemctl start kubelet

[root@k8s-master ~]# systemctl enable kubelet

Created symlink from /etc/systemd/system/multi-user.target.wants/kubelet.service to /usr/lib/systemd/system/kubelet.service.

4)啟動kubelet-proxy

[root@k8s-master ~]# systemctl start kube-proxy

[root@k8s-master ~]# systemctl enable kube-proxy

Created symlink from /etc/systemd/system/multi-user.target.wants/kube-proxy.service to /usr/lib/systemd/system/kube-proxy.service.

5)檢查node節(jié)點(diǎn)

[root@k8s-master ~]# kubectl get nodes

NAME ????????STATUS ???AGE

k8s-master ??Ready ????1m

4、安裝配置k8s-node1節(jié)點(diǎn)

1)安裝node

[root@k8s-node1 ~]# yum -y install kubernetes node.x86_64

2)node1連接k8s-master

[root@k8s-node1 ~]# vim /etc/kubernetes/config

?22 KUBE_MASTER="--master=http://192.168.50.53:8080"

3)配置kubelet

[root@k8s-node1 ~]# vim /etc/kubernetes/kubelet

?5 KUBELET_ADDRESS="--address=192.168.50.50"

?11 KUBELET_HOSTNAME="--hostname-override=k8s-node1"

?14 KUBELET_API_SERVER="--api-servers=http://192.168.50.53:8080"

4)啟動服務(wù)

[root@k8s-node1 ~]# systemctl start kubelet

[root@k8s-node1 ~]# systemctl start kube-proxy

[root@k8s-node1 ~]# systemctl enable kubelet

Created symlink from /etc/systemd/system/multi-user.target.wants/kubelet.service to /usr/lib/systemd/system/kubelet.service.

[root@k8s-node1 ~]# systemctl enable kube-proxy

Created symlink from /etc/systemd/system/multi-user.target.wants/kube-proxy.service to /usr/lib/systemd/system/kube-proxy.service.

5)在master節(jié)點(diǎn)檢測node節(jié)點(diǎn)狀態(tài)

[root@k8s-master ~]# kubectl get nodes

NAME ????????STATUS ???AGE

k8s-master ??Ready ????13m

k8s-node1 ???Ready ????1m

5、安裝k8s-node2節(jié)點(diǎn)

1)安裝node

[root@k8s-node2 ~]# yum -y install kubernetes node.x86_64

2)node1連接k8s-master

[root@k8s-node2 ~]# vim /etc/kubernetes/config

22 KUBE_MASTER="--master=http://192.168.50.53:8080"

3)配置kubelet

[root@k8s-node2 ~]# vim /etc/kubernetes/kubelet

??5 KUBELET_ADDRESS="--address=192.168.50.51"

?11 KUBELET_HOSTNAME="--hostname-override=k8s-node2"

?14 KUBELET_API_SERVER="--api-servers=http://192.168.50.53:8080"

4)啟動服務(wù)

[root@k8s-node2 ~]# systemctl start kubelet

[root@k8s-node2 ~]# systemctl start kube-proxy

[root@k8s-node2 ~]# systemctl enable kubelet

Created symlink from /etc/systemd/system/multi-user.target.wants/kubelet.service to /usr/lib/systemd/system/kubelet.service.

[root@k8s-node2 ~]# systemctl enable kube-proxy

Created symlink from /etc/systemd/system/multi-user.target.wants/kube-proxy.service to /usr/lib/systemd/system/kube-proxy.service.

5)在master節(jié)點(diǎn)檢測node節(jié)點(diǎn)狀態(tài)

[root@k8s-master ~]# kubectl get nodes

NAME ????????STATUS ???AGE

k8s-master ??Ready ????19m

k8s-node1 ???Ready ????7m

k8s-node2 ???Ready ????1m

6、為所有node節(jié)點(diǎn)配置flannel網(wǎng)絡(luò)

1)在k8s-master節(jié)點(diǎn)安裝flannel

[root@k8s-master ~]# yum -y install flannel -y

[root@k8s-master ~]# vim /etc/sysconfig/flanneld

?4 FLANNEL_ETCD_ENDPOINTS="http://192.168.50.53:2379"

[root@k8s-master ~]# etcdctl set /atomic.io/network/config '{"Network":"172.16.0.0/16"}'

{"Network":"172.16.0.0/16"}???????? ??? //查看多一個網(wǎng)絡(luò)

[root@k8s-master ~]# systemctl start flanneld??? //重新啟動docker服務(wù)和flannel網(wǎng)絡(luò)一至

[root@k8s-master ~]# systemctl enable flanneld

Created symlink from /etc/systemd/system/multi-user.target.wants/flanneld.service to /usr/lib/systemd/system/flanneld.service.

Created symlink from /etc/systemd/system/docker.service.wants/flanneld.service to /usr/lib/systemd/system/flanneld.service.

[root@k8s-master ~]# ifconfig???????? //查看多一個網(wǎng)絡(luò)

flannel0: flags=4305<UP,POINTOPOINT,RUNNING,NOARP,MULTICAST> ?mtu 1472

????????inet 172.16.48.0 ?netmask 255.255.0.0 ?destination 172.16.48.0

????????inet6 fe80::4fff:f857:41f4:3894 ?prefixlen 64 ?scopeid 0x20<link>

????????unspec 00-00-00-00-00-00-00-00-00-00-00-00-00-00-00-00 ?txqueuelen 500 ?(UNSPEC)

????????RX packets 0 ?bytes 0 (0.0 B)

????????RX errors 0 ?dropped 0 ?overruns 0 ?frame 0

????????TX packets 3 ?bytes 144 (144.0 B)

????????TX errors 0 ?dropped 0 overruns 0 ?carrier 0 ?collisions 0

[root@k8s-master ~]# systemctl restart docker

sys[root@k8s-master ~]# systemctl enable docker

Created symlink from /etc/systemd/system/multi-user.target.wants/docker.service to /usr/lib/systemd/system/docker.service.

[root@k8s-master ~]# ifconfig

docker0: flags=4099<UP,BROADCAST,MULTICAST> ?mtu 1500

????????inet 172.16.48.1 ?netmask 255.255.255.0 ?broadcast 0.0.0.0

????????ether 02:42:87:58:2f:59 ?txqueuelen 0 ?(Ethernet)

????????RX packets 0 ?bytes 0 (0.0 B)

????????RX errors 0 ?dropped 0 ?overruns 0 ?frame 0

????????TX packets 0 ?bytes 0 (0.0 B)

????????TX errors 0 ?dropped 0 overruns 0 ?carrier 0 ?collisions 0

2)配置node1節(jié)點(diǎn)flannel網(wǎng)絡(luò)

[root@k8s-node1 ~]# yum -y install flannel -y

[root@k8s-node1 ~]# vim /etc/sysconfig/flanneld

?4 FLANNEL_ETCD_ENDPOINTS="http://192.168.50.53:2379"

[root@k8s-node1 ~]# systemctl start flanneld

[root@k8s-node1 ~]# systemctl enable flanneld

Created symlink from /etc/systemd/system/multi-user.target.wants/flanneld.service to /usr/lib/systemd/system/flanneld.service.

Created symlink from /etc/systemd/system/docker.service.wants/flanneld.service to /usr/lib/systemd/system/flanneld.service.

[root@k8s-node1 ~]# systemctl restart docker

[root@k8s-node1 ~]# systemctl enable docker

Created symlink from /etc/systemd/system/multi-user.target.wants/docker.service to /usr/lib/systemd/system/docker.service.

3)安裝node2節(jié)點(diǎn)flannel網(wǎng)絡(luò)

[root@k8s-node2 ~]# yum -y install flannel -y

[root@k8s-node2 ~]# vim /etc/sysconfig/flanneld

?4 FLANNEL_ETCD_ENDPOINTS="http://192.168.50.53:2379"

[root@k8s-node2 ~]# systemctl start flanneld

[root@k8s-node2 ~]# systemctl enable flanneld

Created symlink from /etc/systemd/system/multi-user.target.wants/flanneld.service to /usr/lib/systemd/system/flanneld.service.

Created symlink from /etc/systemd/system/docker.service.wants/flanneld.service to /usr/lib/systemd/system/flanneld.service.

[root@k8s-node2 ~]# systemctl restart docker

sy[root@k8s-node2 ~]# systemctl enable docker

Created symlink from /etc/systemd/system/multi-user.target.wants/docker.service to /usr/lib/systemd/system/docker.service.

master查看

[root@k8s-master ~]# ?kubectl get nodes

NAME ????????STATUS ???AGE

k8s-master ??Ready ????35m

k8s-node1 ???Ready ????23m

k8s-node2 ???Ready ????17m

4)測試docker容器跨宿主機(jī)通信

[root@k8s-master ~]# iptables -P FORWARD ACCEPT

[root@k8s-master ~]#

[root@k8s-node1 ~]# iptables -P FORWARD ACCEPT

[root@k8s-node1 ~]#

[root@k8s-node2 ~]# iptables -P FORWARD ACCEPT

[root@k8s-node2 ~]#

iptables -P FORWARD ACCEPT: 這個命令將iptables的FORWARD鏈的默認(rèn)策略設(shè)置為ACCEPT(接受)。iptables是Linux上的防火墻工具,它可以用來設(shè)置網(wǎng)絡(luò)規(guī)則和過濾器。

-P FORWARD: 指定要更改的鏈?zhǔn)荈ORWARD鏈,這個鏈控制通過Linux主機(jī)的轉(zhuǎn)發(fā)流量

ACCEPT: 設(shè)置為接受(允許)轉(zhuǎn)發(fā)流量,默認(rèn)情況下,F(xiàn)ORWARD鏈的默認(rèn)策略是DROP(拒絕)。

#: 這是Linux命令行中用于表示注釋的符號。在這個上下文中,#后面的內(nèi)容被視為注釋,不會被執(zhí)行。

這意味著iptables的FORWARD鏈的默認(rèn)策略已被成功更改為接受(ACCEPT),允許通過Linux主機(jī)的轉(zhuǎn)發(fā)流量。

7、配置docker開啟加載防火墻規(guī)則允許轉(zhuǎn)發(fā)數(shù)據(jù)

1)配置k8s-master節(jié)點(diǎn)

[root@k8s-master ~]# vim /usr/lib/systemd/system/docker.service

?1 [Unit]

??2 Description=Docker Application Container Engine

??3 Documentation=http://docs.docker.com

??4 After=network.target

??5 Wants=docker-storage-setup.service

??6 Requires=docker-cleanup.timer

??7

??8 [Service]

??9 Type=notify

?10 NotifyAccess=main

?11 EnvironmentFile=-/run/containers/registries.conf

?12 EnvironmentFile=-/etc/sysconfig/docker

?13 EnvironmentFile=-/etc/sysconfig/docker-storage

?14 EnvironmentFile=-/etc/sysconfig/docker-network

?15 Environment=GOTRACEBACK=crash

?16 Environment=DOCKER_HTTP_HOST_COMPAT=1

?17 Environment=PATH=/usr/libexec/docker:/usr/bin:/usr/sbin

?18 ExecStartPort=/usr/sbin/iptables -P FORWARD ACCEPT?????? 添加這一行

?19 ExecStart=/usr/bin/dockerd-current \

[root@k8s-master ~]# systemctl daemon-reload

[root@k8s-master ~]# systemctl restart docker

2)配置k8s-node1節(jié)點(diǎn)

[root@k8s-node1 ~]# ?vim /usr/lib/systemd/system/docker.service

?18 ExecStartPort=/usr/sbin/iptables -P FORWARD ACCEPT

[root@k8s-node1 ~]# systemctl daemon-reload

[root@k8s-node1 ~]# systemctl restart docker

3)配置k8s-node2節(jié)點(diǎn)

[root@k8s-node2 ~]# vim /usr/lib/systemd/system/docker.service

?18 ExecStartPort=/usr/sbin/iptables -P FORWARD ACCEPT

[root@k8s-node2 ~]# systemctl daemon-reload

[root@k8s-node2 ~]# systemctl restart docker文章來源地址http://www.zghlxwxcb.cn/news/detail-639305.html

到了這里,關(guān)于Yum 部署K8S集群的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • k8s入門:裸機(jī)部署 k8s 集群

    k8s入門:裸機(jī)部署 k8s 集群

    系列文章 第一章:? k8s入門:裸機(jī)部署 k8s 集群 第二章:? k8s入門:部署應(yīng)用到 k8s 集群 第三章:? k8s入門:service 簡單使用 第四章:? k8s入門:StatefulSet 簡單使用 第五章:? k8s入門:存儲(storage) 第六章:? K8S 配置 storageclass 使用 nfs 動態(tài)申領(lǐng)本地磁盤空間 第七章:

    2023年04月20日
    瀏覽(25)
  • Amazon Linux2使用kubeadm部署安裝K8S集群

    在AWS上啟動3臺Amazon Linux2的服務(wù)器,服務(wù)器配置為2vcpu 和2GB內(nèi)存 1. 修改主機(jī)名(可選步驟) 2.導(dǎo)入k8s的yum倉庫密鑰 3. 配置kubernetes源 4. 部署安裝kubeadm、kubectl、docker,并且啟動docker 5. 在master節(jié)點(diǎn)上執(zhí)行初始化 具體初始化過程如下 [init] Using Kubernetes version: v1.27.1 [preflight] Runni

    2024年02月06日
    瀏覽(29)
  • 使用kubekey部署k8s集群和kubesphere、在已有k8s集群上部署kubesphere

    環(huán)境: centos 7.6、k8s 1.22.17、kubesphere v3.3.0 本篇以kubesphere v3.3.0版本講解。 kubesphere 愿景是打造一個以 kubernetes 為內(nèi)核的云原生分布式操作系統(tǒng),它的架構(gòu)可以非常方便地使第三方應(yīng)用與云原生生態(tài)組件進(jìn)行即插即用(plug-and-play)的集成,支持云原生應(yīng)用在多云與多集群的統(tǒng)一

    2024年02月04日
    瀏覽(35)
  • Prometheus+Grafana監(jiān)控K8S集群(基于K8S環(huán)境部署)

    Prometheus+Grafana監(jiān)控K8S集群(基于K8S環(huán)境部署)

    1、服務(wù)器及K8S版本信息: IP地址 主機(jī)名稱 角色 K8S版本 16.32.15.200 master-1 Master節(jié)點(diǎn) v1.23.0 16.32.15.201 node-1 Node節(jié)點(diǎn) v1.23.0 16.32.15.202 node-2 Node節(jié)點(diǎn) v1.23.0 2、部署組件版本: 序號 名稱 版本 作用 1 Prometheus v2.33.5 收集、存儲和處理指標(biāo)數(shù)據(jù) 2 Node_exporter v0.16.0 采集服務(wù)器指標(biāo),如CP

    2024年02月04日
    瀏覽(34)
  • K8S二進(jìn)制部署詳解,一文教會你部署高可用K8S集群

    Pod網(wǎng)段: 10.0.0.0/16 Service網(wǎng)段: 10.255.0.0/16 集群角色 ip 主機(jī)名 安裝組件 控制節(jié)點(diǎn) 10.10.0.10 master01 apiserver、controller-manager、scheduler、etcd、docker、keepalived、nginx 控制節(jié)點(diǎn) 10.10.0.11 master02 apiserver、controller-manager、scheduler、etcd、docker、keepalived、nginx 控制節(jié)點(diǎn) 10.10.0.12 master03 apiser

    2024年04月28日
    瀏覽(29)
  • K8s 部署 CNI 網(wǎng)絡(luò)組件+k8s 多master集群部署+負(fù)載均衡

    K8s 部署 CNI 網(wǎng)絡(luò)組件+k8s 多master集群部署+負(fù)載均衡

    ------------------------------ 部署 CNI 網(wǎng)絡(luò)組件 ------------------------------ ---------- 部署 flannel ---------- K8S 中 Pod 網(wǎng)絡(luò)通信: ●Pod 內(nèi)容器與容器之間的通信 在同一個 Pod 內(nèi)的容器(Pod 內(nèi)的容器是不會跨宿主機(jī)的)共享同一個網(wǎng)絡(luò)命名空間,相當(dāng)于它們在同一臺機(jī)器上一樣,可以用 lo

    2024年02月08日
    瀏覽(23)
  • 部署K8S集群

    目錄 一、環(huán)境搭建 1、準(zhǔn)備環(huán)境 2、安裝master節(jié)點(diǎn) 3、安裝k8s-master上的node 4、安裝配置k8s-node1節(jié)點(diǎn) 5、安裝k8s-node2節(jié)點(diǎn) 6、為所有node節(jié)點(diǎn)配置flannel網(wǎng)絡(luò) 7、配置docker開啟加載防火墻規(guī)則允許轉(zhuǎn)發(fā)數(shù)據(jù) 二、k8s常用資源管理 1、創(chuàng)建一個pod 2、pod管理 1、準(zhǔn)備環(huán)境 計算機(jī)說明,建議

    2024年02月13日
    瀏覽(21)
  • K8s 集群部署

    K8s 集群部署

    學(xué)習(xí)了黑馬K8s,首先跟著視頻部署K8s,寫下筆記 轉(zhuǎn)至 原文鏈接 整合黑馬老師筆記 目前生產(chǎn)部署Kubernetes集群主要有兩種方式: 一 kubeadm Kubeadm是一個K8s部署工具,提供kubeadm init和kubeadm join,用于快速部署Kubernetes集群。 二 進(jìn)制包 從github下載發(fā)行版的二進(jìn)制包,手動部署每個

    2024年02月04日
    瀏覽(23)
  • K8S—集群部署

    K8S—集群部署

    ????????K8s是容器集群管理系統(tǒng),是一個開源的平臺,可以實(shí)現(xiàn)容器集群的自動化部署、自動擴(kuò)展容維護(hù)等功能,k8s的原名是kubernetes。 1.1、K8s的功能: 有大量跨主機(jī)的容器需要管理 快速部署應(yīng)用快速擴(kuò)展應(yīng)用 無縫對接新的應(yīng)用功能 節(jié)省資源,優(yōu)化硬件資源的使用情況

    2024年02月12日
    瀏覽(24)
  • 【Kubernetes運(yùn)維篇】RBAC之創(chuàng)建集群用戶管理K8S

    【Kubernetes運(yùn)維篇】RBAC之創(chuàng)建集群用戶管理K8S

    需求:公司新入職兩位運(yùn)維同事,分別是zhangsan、lisi,剛?cè)肼毧隙ú荒芙oK8S管理員權(quán)限,所以需要創(chuàng)建兩個系統(tǒng)賬號,分別對應(yīng)不同的權(quán)限: zhangsan用戶 :對uat名稱空間擁有管理員權(quán)限 lisi用戶 :對所有命名空間擁有查看Pod的權(quán)限 第一步:生成一個私鑰 第二步:生成一個證

    2024年02月16日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包