国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

安裝部署k8s集群

這篇具有很好參考價(jià)值的文章主要介紹了安裝部署k8s集群。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

系統(tǒng): CentOS Linux release 7.9.2009 (Core)

  • 準(zhǔn)備3臺(tái)主機(jī)
192.168.44.148 k8s-master
92.168.44.154 k8s-worker01
192.168.44.155 k8s-worker02
  • 3臺(tái)主機(jī)準(zhǔn)備工作
    關(guān)閉防火墻和selinux

      systemctl disable firewalld --now
      setenforce 0
      sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
    

    關(guān)閉swap分區(qū)(swap分區(qū)會(huì)降低性能,所以選擇關(guān)閉)
    參考如下鏈接:

      https://blog.csdn.net/dejunyang/article/details/97972399
    

    設(shè)置node的主機(jī)名,并配置/etc/hosts(這樣可以方面看到pod調(diào)度到哪個(gè)node上面)
    對(duì)應(yīng)的node配置對(duì)應(yīng)的主機(jī)名

      hostnamectl set-hostname k8s-master
      hostnamectl set-hostname k8s-worker01
      hostnamectl set-hostname k8s-worker02
    

    每臺(tái)node主機(jī)都需要執(zhí)行

      cat >> /etc/hosts << EOF 
      192.168.44.148  k8s-master
      192.168.44.154  k8s-worker01
      192.168.44.155  k8s-worker02
      EOF
    
  • 開(kāi)始安裝k8s

  1. 配置yum源(3臺(tái)主機(jī)都需要操作,使用阿里云yum倉(cāng)庫(kù))

    cat >  /etc/yum.repos.d/kubernetes.repo << EOF
    [kubernetes]
    name=Kubernetes
    baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
    enabled=1
    gpgcheck=0
    repo_gpgcheck=0
    gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
            http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
    EOF
    
  2. 安裝 kuberneters組件(所有節(jié)點(diǎn)安裝)

    yum -y install kubeadm-1.19.0 kubectl-1.19.0 kubelet-1.19.0 --disableexcludes=kubernetes
    
  • --disableexcludes=Kubernetes 禁掉除了這個(gè)kubernetes之外的別的倉(cāng)庫(kù)
  • 這里安裝的是指定版本,不指定版本默認(rèn)安裝最新版本
  1. kubelet服務(wù),啟動(dòng)并設(shè)置開(kāi)啟自啟(所有node執(zhí)行)

    systemctl enable kubelet --now
    
  2. 所有節(jié)點(diǎn)安裝docker

    yum install -y yum-utils
    yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
    yum -y install docker-ce-19.03.10-3.el7 docker-ce-cli-19.03.10-3.el7 containerd.io docker-compose-plugin
    

    note: K8s使用的是1.19.0版本,官網(wǎng)推薦docker 版本 19.03

    啟動(dòng),并自啟docker

    systemctl enable docker --now
    

    Docker配置鏡像倉(cāng)庫(kù),并修改cgroup驅(qū)動(dòng)為systemd(所有node節(jié)點(diǎn)執(zhí)行)

    Cgroups概念  cgroups 的全稱是 Linux Control Groups,主要作用是限制、記錄和隔離進(jìn)程組(process
    groups)使用的物理資源(cpu、memory、IO 等)。

    systemd是系統(tǒng)自帶的cgroup管理器, 系統(tǒng)初始化就存在的, 和cgroups聯(lián)系緊密,為每一個(gè)進(jìn)程分配cgroups,
    用它管理就行了. 如果設(shè)置成cgroupfs就存在2個(gè)cgroup控制管理器, 實(shí)驗(yàn)證明在資源有壓力的情況下,會(huì)存在不穩(wěn)定的情況。

    由于 kubeadm 把 kubelet 視為一個(gè)系統(tǒng)服務(wù)來(lái)管理,所以對(duì)基于 kubeadm 的安裝kubernetes, 我們推薦使用
    systemd 驅(qū)動(dòng),不推薦 cgroupfs 驅(qū)動(dòng)。

    cat > /etc/docker/daemon.json << EOF
    {
    "exec-opts": ["native.cgroupdriver=systemd"],
    "registry-mirrors": ["https://l72pvsl6.mirror.aliyuncs.com"],
    "log-opts": {"max-size":"50M","max-file":"3"}
    }
    EOF
    
  • "exec-opts": ["native.cgroupdriver=systemd"] 設(shè)置cgroup驅(qū)動(dòng)為systemd
  • "registry-mirrors": ["https://l72pvsl6.mirror.aliyuncs.com"] 設(shè)置docker鏡像倉(cāng)庫(kù)為阿里云鏡像
  • "log-opts": {"max-size":"50M","max-file":"3"} 設(shè)置docker容器日志最大為50M,最大文件個(gè)數(shù)為 3
  1. 允許 iptables 檢查橋接流量
    若要顯式加載此模塊,請(qǐng)運(yùn)行 sudo modprobe br_netfilter 通過(guò)運(yùn)行 lsmod | grep br_netfilter 來(lái)驗(yàn)證 br_netfilter 模塊是否已加載

     sudo modprobe br_netfilter
     lsmod | grep br_netfilter
    

    為了讓 Linux 節(jié)點(diǎn)的 iptables 能夠正確查看橋接流量,請(qǐng)確認(rèn) sysctl 配置中的 net.bridge.bridge-nf-call-iptables 設(shè)置為 1。例如:

     cat > /etc/modules-load.d/k8s.conf << EOF
      overlay
      br_netfilter
     EOF
    

     modprobe overlay
     modprobe br_netfilter
    

    設(shè)置所需的 sysctl 參數(shù),參數(shù)在重新啟動(dòng)后保持不變

     cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
     net.bridge.bridge-nf-call-iptables  = 1
     net.bridge.bridge-nf-call-ip6tables = 1
     net.ipv4.ip_forward                 = 1
     EOF
    

    加載sysctl參數(shù)(重啟也能生效)

     sysctl --system
    
  2. 修改kubeadm的默認(rèn)配置

    kubeadm config print init-defaults > init-config.yaml     將kubeadm默認(rèn)的配置保存在文件中,到時(shí)候?qū)肱渲梦募跏蓟?

    修改init-config.yaml(只修改幾個(gè)關(guān)鍵的部分)

    advertiseAddress: 192.168.44.148
    imageRepository: registry.aliyuncs.com/google_containers
    networking:
     dnsDomain: cluster.local
     serviceSubnet: 10.96.0.0/12
     podSubnet: 192.168.0.0/16 
    

    note:

  • advertiseAddress master 與集群通信的ip

  • imageRepository: registry.aliyuncs.com/google_containers 鏡像倉(cāng)庫(kù)地址

  • networking 下面只添加了 podSubnet: 192.168.0.0/16 這個(gè)參數(shù),其他都是默認(rèn);待會(huì)要修改CNI文件子網(wǎng)范圍和這個(gè)一致

    查看需要拉取的鏡像

    kubeadm config images list --config=init-config.yaml
    

    拉取鏡像

    kubeadm config images pull --config=init-config.yaml
    
  1. 運(yùn)行kubeadm init 命令安裝master 節(jié)點(diǎn)

    kubeadm init --config=init-config.yaml
    

note: 可以忽略如下信息

W0131 16:57:45.102290 3727 configset.go:348] WARNING: kubeadmcannot validate component configs for API groups [kubelet.config.k8s.io kubeproxy.config.k8s.io]

Your Kubernetes control-plane has initialized successfully! 代表控制平面初始化成功

  1. 為kubectl 配置證書(shū)才能訪問(wèn)master
    非root用戶配置:

    mkdir -p $HOME/.kube
    sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
    sudo chown $(id -u):$(id -g) $HOME/.kube/config
    

    root用戶配置:

    echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> /etc/profile
    source /etc/profile
    
  2. 將節(jié)點(diǎn)加入到k8s集群

    當(dāng)然,當(dāng)集群已經(jīng)成功初始化完成都,最下方會(huì)打印出加入集群的代碼:
    kubeadm join 192.168.44.148:6443 --token abcdef.0123456789abcdef
    –discovery-token-ca-cert-hash sha256:88eb2767faaad801ce07501946b510d20bc180fd20cf35c9aa1822b3b345c2ef

    獲取加入node節(jié)點(diǎn)的token(master節(jié)點(diǎn)執(zhí)行)

    kubeadm token list
    

    獲取 --discovery-token-ca-cert-hash 值

    openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'
    

    固定格式是(注意換成自己的token和hash值):

    kubeadm join 192.168.44.148:6443 --token abcdef.0123456789abcdef --discovery-token-ca-cert-hash sha256:88eb2767faaad801ce07501946b510d20bc180fd20cf35c9aa1822b3b345c2ef
    

    如果token過(guò)期了,可以在master節(jié)點(diǎn)上運(yùn)行

    kubeadm token create
    

    打印加入節(jié)點(diǎn)的完整命令可以運(yùn)行

    kubeadm token create --print-join-command
    

    在所有node節(jié)點(diǎn)執(zhí)行 加入集群的token
    根據(jù)自己對(duì)應(yīng)的加入集群的token

    kubeadm join 192.168.44.148:6443 --token abcdef.0123456789abcdef --discovery-token-ca-cert-hash sha256:88eb2767faaad801ce07501946b510d20bc180fd20cf35c9aa1822b3b345c2ef
    

    在master節(jié)點(diǎn)使用 kubectl get pod -A 查看所有組件是否安裝成功,狀態(tài)是否Runting(需要等待一會(huì))

    kubectl  get pod -A
    
    	NAMESPACE     NAME                                 READY   STATUS    RESTARTS   AGE
    kube-system   coredns-6d56c8448f-hsm4m             0/1     Pending   0          16m
    kube-system   coredns-6d56c8448f-z66pp             0/1     Pending   0          16m
    kube-system   etcd-k8s-master                      1/1     Running   0          16m
    kube-system   kube-apiserver-k8s-master            1/1     Running   0          16m
    kube-system   kube-controller-manager-k8s-master   1/1     Running   0          16m
    kube-system   kube-proxy-447d7                     1/1     Running   0          119s
    kube-system   kube-proxy-9gt2z                     1/1     Running   0          16m
    kube-system   kube-proxy-s9hbb                     1/1     Running   0          114s
    kube-system   kube-scheduler-k8s-master            1/1     Running   0          16m
    

    在master節(jié)點(diǎn)使用查看所有節(jié)點(diǎn)信息

    kubectl get nodes
    
    	NAME           STATUS     ROLES    AGE     VERSION
    k8s-master     NotReady   master   17m     v1.19.0
    k8s-worker01   NotReady   <none>   2m48s   v1.19.0
    k8s-worker02   NotReady   <none>   2m43s   v1.19.0
    

    note:Node節(jié)點(diǎn)狀態(tài)顯示 NotReady 因?yàn)?還沒(méi)有安裝 CNI(容器網(wǎng)絡(luò)接口)

  3. 安裝Calico CNI網(wǎng)絡(luò)插件(在master節(jié)點(diǎn)執(zhí)行)
    下載資源文件

    curl -O https://docs.tigera.io/archive/v3.18/manifests/calico.yaml
    

    修改一下pod網(wǎng)段
    安裝部署k8s集群,k8s學(xué)習(xí),k8s

    安裝

    kubectl apply -f calico.yaml
    

    等待一會(huì)再次查看pod,node詳情

    kubectl get nodes,pod -A
    
    	NAME                STATUS   ROLES    AGE   VERSION
    node/k8s-master     Ready    master   36m   v1.19.0
    node/k8s-worker01   Ready    <none>   21m   v1.19.0
    node/k8s-worker02   Ready    <none>   21m   v1.19.0
    
    NAMESPACE     NAME                                           READY   STATUS             RESTARTS   AGE
    kube-system   pod/calico-kube-controllers-56c7cdffc6-frc82   0/1     CrashLoopBackOff   6          13m
    kube-system   pod/calico-node-7rxzn                          1/1     Running            0          13m
    kube-system   pod/calico-node-dbjhv                          1/1     Running            0          13m
    kube-system   pod/calico-node-fsw2d                          1/1     Running            0          13m
    kube-system   pod/coredns-6d56c8448f-hsm4m                   0/1     Running            0          36m
    kube-system   pod/coredns-6d56c8448f-z66pp                   0/1     Running            0          36m
    kube-system   pod/etcd-k8s-master                            1/1     Running            0          36m
    kube-system   pod/kube-apiserver-k8s-master                  1/1     Running            0          36m
    kube-system   pod/kube-controller-manager-k8s-master         1/1     Running            0          36m
    kube-system   pod/kube-proxy-447d7                           1/1     Running            0          21m
    kube-system   pod/kube-proxy-9gt2z                           1/1     Running            0          36m
    kube-system   pod/kube-proxy-s9hbb                           1/1     Running            0          21m
    kube-system   pod/kube-scheduler-k8s-master                  1/1     Running            0          36m
    

    目前來(lái)看node節(jié)點(diǎn)已經(jīng)就緒了,但是有一個(gè)pod報(bào)錯(cuò),2個(gè)pod沒(méi)有準(zhǔn)備好,使用kubectl --namespace=kube-system describe pod pod名稱 查看pod的事件

    kubectl --namespace=kube-system describe pod calico-kube-controllers-56c7cdffc6-frc82
    

    報(bào)錯(cuò)問(wèn)題能力有限無(wú)法處理,部署基本都是這樣。組要是版本差異然后不知道怎么處理?。?!
    如果知道是什么原因?qū)е碌膱?bào)錯(cuò),還請(qǐng)不吝賜教。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-826519.html

到了這里,關(guān)于安裝部署k8s集群的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • K8S集群安裝與部署(Linux系統(tǒng))

    K8S集群安裝與部署(Linux系統(tǒng))

    一、環(huán)境說(shuō)明:CentOS7、三臺(tái)主機(jī)(Master:10.0.0.132、Node1:10.0.0.133、Node2:10.0.0.134) 二、準(zhǔn)備環(huán)境: 映射 關(guān)閉防火墻 三、etcd集群配置 安裝etcd(Master) 修改etcd配置文件/etc/etcd/etcd.conf(Master) 安裝K8S節(jié)點(diǎn)組件、etcd、flannel以及docker(Node1和Node2) 修改etcd配置文件/etc/etcd/et

    2024年02月11日
    瀏覽(22)
  • 【k8s】基于Prometheus監(jiān)控Kubernetes集群安裝部署

    【k8s】基于Prometheus監(jiān)控Kubernetes集群安裝部署

    目錄 基于Prometheus監(jiān)控Kubernetes集群安裝部署 一、環(huán)境準(zhǔn)備 二、部署kubernetes集群 三、部署Prometheus監(jiān)控平臺(tái) 四、部署Grafana服務(wù) 五、grafana? web操作 IP地址 主機(jī)名 組件 192.168.100.131 k8s-master kubeadm、kubelet、kubectl、docker-ce 192.168.100.132 k8s-node01 kubeadm、kubelet、kubectl、docker-ce 192.168

    2024年02月12日
    瀏覽(107)
  • 安裝部署rancher2.7.0,然后導(dǎo)入K8S集群,管理集群

    安裝部署rancher2.7.0,然后導(dǎo)入K8S集群,管理集群

    centos系統(tǒng)請(qǐng)參考博客 ubuntu系統(tǒng)請(qǐng)參考博客 默認(rèn)用戶是admin 瀏覽器打開(kāi):https://IP:443 回車后就出現(xiàn)了如下圖 利用剛才查到的密碼登錄 登錄后直接修改密碼,點(diǎn)擊繼續(xù)。 上圖就是進(jìn)入后的默認(rèn)頁(yè)面 不同版本調(diào)整中文的頁(yè)面不一樣,具體請(qǐng)根據(jù)自己的版本可以百度或者去官網(wǎng)查

    2024年02月11日
    瀏覽(50)
  • K8s(kubernetes)集群搭建及dashboard安裝、基礎(chǔ)應(yīng)用部署

    K8s(kubernetes)集群搭建及dashboard安裝、基礎(chǔ)應(yīng)用部署

    本質(zhì)是一組服務(wù)器集群,在集群每個(gè)節(jié)點(diǎn)上運(yùn)行特定的程序,來(lái)對(duì)節(jié)點(diǎn)中的容器進(jìn)行管理。實(shí)現(xiàn)資源管理的自動(dòng)化。 自我修復(fù) 彈性伸縮 服務(wù)發(fā)現(xiàn) 負(fù)載均衡 版本回退 存儲(chǔ)編排 控制節(jié)點(diǎn)(master)-控制平面 APIserver :資源操作的唯一入口 scheduler :集群資源調(diào)度,將Pod調(diào)度到node節(jié)

    2024年02月08日
    瀏覽(32)
  • Centos7 安裝部署 Kubernetes(k8s) 高可用集群

    Centos7 安裝部署 Kubernetes(k8s) 高可用集群

    宿主機(jī)系統(tǒng) 集群角色 服務(wù)器IP 主機(jī)名稱 容器 centos7.6 master 192.168.2.150 ks-m1 docker centos7.6 master 192.168.2.151 ks-n1 docker centos7.6 master 192.168.2.152 ks-n2 docker 1.1 服務(wù)器初始化及網(wǎng)絡(luò)配置 VMware安裝Centos7并初始化網(wǎng)絡(luò)使外部可以訪問(wèn)** 注意事項(xiàng):請(qǐng)一定要看完上面這篇文章再執(zhí)行下面的操

    2024年02月03日
    瀏覽(55)
  • Amazon Linux2使用kubeadm部署安裝K8S集群

    在AWS上啟動(dòng)3臺(tái)Amazon Linux2的服務(wù)器,服務(wù)器配置為2vcpu 和2GB內(nèi)存 1. 修改主機(jī)名(可選步驟) 2.導(dǎo)入k8s的yum倉(cāng)庫(kù)密鑰 3. 配置kubernetes源 4. 部署安裝kubeadm、kubectl、docker,并且啟動(dòng)docker 5. 在master節(jié)點(diǎn)上執(zhí)行初始化 具體初始化過(guò)程如下 [init] Using Kubernetes version: v1.27.1 [preflight] Runni

    2024年02月06日
    瀏覽(29)
  • 云原生|kubernetes|kubernetes集群部署神器kubekey安裝部署高可用k8s集群(半離線形式)

    云原生|kubernetes|kubernetes集群部署神器kubekey安裝部署高可用k8s集群(半離線形式)

    前面利用kubekey部署了一個(gè)簡(jiǎn)單的非高可用,etcd單實(shí)例的kubernetes集群,經(jīng)過(guò)研究,發(fā)現(xiàn)部署過(guò)程可以簡(jiǎn)化,省去了一部分下載過(guò)程(主要是下載kubernetes組件的過(guò)程)只是kubernetes版本會(huì)固定在1.22.16版本,etcd集群可以部署成生產(chǎn)用的外部集群,并且apiserver等等組件也是高可用,

    2024年02月15日
    瀏覽(28)
  • 安裝部署最新版或者rancher2.7.0,然后導(dǎo)入K8S集群,管理集群

    安裝部署最新版或者rancher2.7.0,然后導(dǎo)入K8S集群,管理集群

    centos系統(tǒng)請(qǐng)參考博客 ubuntu系統(tǒng)請(qǐng)參考博客 默認(rèn)用戶是admin 瀏覽器打開(kāi):https://IP:443 回車后就出現(xiàn)了如下圖 利用剛才查到的密碼登錄 登錄后直接修改密碼,點(diǎn)擊繼續(xù)。 上圖就是進(jìn)入后的默認(rèn)頁(yè)面 不同版本調(diào)整中文的頁(yè)面不一樣,具體請(qǐng)根據(jù)自己的版本可以百度或者去官網(wǎng)查

    2024年02月08日
    瀏覽(24)
  • Rancher部署k8s集群測(cè)試安裝nginx(節(jié)點(diǎn)重新初始化方法,親測(cè))

    Rancher部署k8s集群測(cè)試安裝nginx(節(jié)點(diǎn)重新初始化方法,親測(cè))

    一、安裝前準(zhǔn)備工作 計(jì)算機(jī) 機(jī)器名 IP地址 部署內(nèi)容 rancher 172.16.5.221 rancher k8smaster 172.16.5.222 Control Plane, Etcd k8sworker01 172.16.5.223 worker k8sworker02 172.16.5.224 worker k8sworker03 172.16.5.225 worker 需在每個(gè)節(jié)點(diǎn)都進(jìn)行操作,可以使用xshell工具分屏進(jìn)行批量操作。 升級(jí)linux內(nèi)核 時(shí)間同步 Hos

    2024年01月20日
    瀏覽(27)
  • m1使用VMware安裝CentOS7并部署k8s高可用集群

    m1使用VMware安裝CentOS7并部署k8s高可用集群

    項(xiàng)目 版本 處理器 Apple M1 Max 操作系統(tǒng) macOS Ventura 13.0 虛擬機(jī)應(yīng)用 VMware Fusion 專業(yè)版 12.2.3 虛擬機(jī)操作系統(tǒng) CentOS Linux 7 (AltArch) 容器運(yùn)行時(shí)版本 docker 1.13.1 集群版本 Kubernetes 1.21.0 2.1 安裝 VMware 安裝包下載地址:VMware Fusion 專業(yè)版 12.2.3 應(yīng)用許可證問(wèn)題請(qǐng)自行解決 2.2 安裝虛擬機(jī) 2.

    2024年02月02日
    瀏覽(25)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包