国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于containerd容器運行時,kubeadmin部署k8s 1.28集群

這篇具有很好參考價值的文章主要介紹了基于containerd容器運行時,kubeadmin部署k8s 1.28集群。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一.主機準(zhǔn)備

1.1主機配置與操作系統(tǒng)說明

centos7u9

1.2主機硬件配置說明

序號 主機名 ip地址 CPU 內(nèi)存 硬盤
1 k8s-master1 192.168.1.200 2C 2G 100G
2 k8s-worker1 192.168.1.201 2C 2G 100G
3 k8s-worker2 192.168.1.202 2C 2G 100G

1.3主機配置

1.3.1主機名配置

hostnamectl set-hostname k8s-master01

1.3.2主機IP地址配置

vi /etc/sysconfig/network-scripts/ifcfg-ens33

TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="none"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="f2c1c981-22ee-4e43-8209-2d6bf20ac6ca"
DEVICE="ens33"
ONBOOT="yes"
IPV6_PRIVACY="no"
IPADDR="192.168.1.200"
PREFIX="24"
GATEWAY="192.168.1.54"
DNS1=119.29.29.29
systemctl restart network

1.3.3主機名與IP地址解析(hosts)

vi /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.200 master1
192.168.1.201 worker1
192.168.1.202 worker2

1.3.4防火墻配置

關(guān)閉防火墻firewalld

systemctl disable firewalld
systemctl stop firewalld
systemctl status firewalld

1.3.5SELINUX配置

修改后需要重啟

sed -ri 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config
sestatus

1.3.6時間同步配置

yum -y install ntpdate
crontab -e

0 */1 * * * ntpdate time1.aliyun.com

crontab -l
ntpdate time1.aliyun.com

1.3.7升級操作系統(tǒng)內(nèi)核

不要一下子升太高,也不要使用很低的內(nèi)核版本
導(dǎo)入elrepo gpg key [軟件安裝驗證密鑰]
rpm --import https://www.elrepo.org/RPM-GPG-KEY-elrepo.org
安裝elrepo YUM源倉庫
yum -y install https://www.elrepo.org/elrepo-release-7.0-4.el7.elrepo.noarch.rpm
安裝kernel-lt版本,ml為長期穩(wěn)定版本,lt為長期維護(hù)版本
yum --enablerepo="elrepo-kernel" -y install kernel-lt.x86_64
設(shè)置更新的內(nèi)核為默認(rèn)引導(dǎo)
grub2-set-default 0
重新生成grub2引導(dǎo)文件
grub2-mkconfig -o /boot/grub2/grub.cfg

更新后,需要重啟,使升級的內(nèi)核生效

驗證內(nèi)核是否為更新的版本
uname -r

1.3.8配置內(nèi)核轉(zhuǎn)發(fā)及網(wǎng)橋過濾

添加網(wǎng)橋過濾及內(nèi)核轉(zhuǎn)發(fā)配置文件
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
vm.swappiness = 0
EOF
加載br_netfilter模塊
modprobe br_netfilter 
查看是否加載
lsmod |grep br_netfilter

vim /etc/sysconfig/modules/br_netfilter.modules 設(shè)置環(huán)境變量

#!/bin/bash
modprobe br_netfilter
chmod 755 /etc/sysconfig/modules/br_netfilter.modules

1.3.9安裝ipset及ipvsadm

安裝ipset及ipvsadm
yum -y install ipset ipvsadm
cat > /etc/sysconfig/modules/ipvs.modules << EOF
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack
EOF
授權(quán)、運行、檢查是否加載
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack

1.3.10關(guān)閉SWAP分區(qū)

vim /etc/fstab

臨時關(guān)閉
swapoff -a
永久關(guān)閉SWAP分區(qū)
#
# /etc/fstab
# Created by anaconda on Sun Nov 12 23:08:40 2023
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/centos-root /                       xfs     defaults        0 0
UUID=90946160-91fa-4b5c-afbb-97e6e82341ea /boot                   xfs     defaults        0 0
/dev/mapper/centos-home /home                   xfs     defaults        0 0
#/dev/mapper/centos-swap swap                    swap    defaults        0 0  #注釋掉

二.容器運行時Containerd準(zhǔn)備

Containerd準(zhǔn)備

2.1.1Containerd部署文件獲取

下載cri-containerd
wget https://github.com/containerd/containerd/releases/download/v1.7.8/cri-containerd-1.7.8-linux-amd64.tar.gz

解壓到根目錄
tar xf -cri-containerd-1.7.8-linux-amd64.tar.gz -C /

2.1.2Containerd配置文件生成并修改

mkdir /etc/containerd

containerd config default > /etc/containerd/config.toml

vim /etc/containerd/config.toml

sandibox_image = "registry.k8s.io/pause:3.9" #k8s 1.28默認(rèn)使用3.9

#2.1.3Containerd啟動及開機自啟動

systemctl enable --now containerd #--now是啟動選項

驗證版本
containerd --version

crictl images

runc替換

2.2.1libseccomp準(zhǔn)備

wget https://github.com/opencontainers/runc/releases/download/v1.1.10/libseccomp-2.5.4.tar.gz

tar xf libseccomp-2.5.4.tar.gz 

cd libseccomp-2.5.4

yum -y install gperf  

./configure      

make &&  make install       

find / -name "libseccomp.so"    

2.2.2runc替換

wget https://github.com/opencontainers/runc/releases/download/v1.1.10/runc.amd64

which runc      

 rm -rf 'which runc'

mv runc.amd64 /usr/local/sbin/runc

chmod +x runc

runc

runc --version

三.kubeadm部署k8s集群

k8sYUM源準(zhǔn)備

官方源

# 此操作會覆蓋 /etc/yum.repos.d/kubernetes.repo 中現(xiàn)存的所有配置
cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://pkgs.k8s.io/core:/stable:/v1.28/rpm/
enabled=1
gpgcheck=1
gpgkey=https://pkgs.k8s.io/core:/stable:/v1.28/rpm/repodata/repomd.xml.key
exclude=kubelet kubeadm kubectl cri-tools kubernetes-cni
EOF

3.2k8s集群軟件安裝

3.2.1安裝及設(shè)置自啟動

sudo yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes
sudo systemctl enable --now kubelet

3.2.1配置kubelet

vim /etc/sysconfig/kubelet

KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"

3.3k8s集群初始化

master節(jié)點操作

kubeadm init --pod-network-cidr=10.244.0.0/16 -apiserver-advertise-address=192.168.1.200

3.3.1kubectl api配置

mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config
   
kubectl get nodes

3.3.2工作節(jié)點加入集群

不一定相同,請復(fù)制實際中輸出的內(nèi)容

在工作節(jié)點執(zhí)行命令

kubeadm join 192.168.1.200:6443 --token 5jz1bl.dt6etzj1m49646vd \
        --discovery-token-ca-cert-hash sha256:5e15bad72866d0b00b3f287f21d7140831ee97f665dd5d63226f50bdca0894fa

結(jié)果

 kubectl get nodes
NAME          STATUS     ROLES           AGE    VERSION
k8s-master1   NotReady   control-plane   110s   v1.28.3
k8s-worker1   NotReady   <none>          7s     v1.28.3
k8s-worker2   NotReady   <none>          4s     v1.28.3
kubectl get pods -n kube-system
NAME                                  READY   STATUS    RESTARTS   AGE
coredns-5dd5756b68-9g67g              0/1     Pending   0          2m30s
coredns-5dd5756b68-nv68x              0/1     Pending   0          2m30s
etcd-k8s-master1                      1/1     Running   0          2m44s
kube-apiserver-k8s-master1            1/1     Running   0          2m44s
kube-controller-manager-k8s-master1   1/1     Running   0          2m44s
kube-proxy-77m25                      1/1     Running   0          2m30s
kube-proxy-hlk5h                      1/1     Running   0          65s
kube-proxy-zjg9r                      1/1     Running   0          62s
kube-scheduler-k8s-master1            1/1     Running   0          2m44s

四.calico網(wǎng)絡(luò)插件

4.1安裝calico operator

kubectl create -f https://raw.githubusercontent.com/projectcalico/calico/v3.26.3/manifests/tigera-operator.yaml
kubectl get ns  #查看命名空間
#NAME              STATUS   AGE
#default           Active   10m
#kube-node-lease   Active   10m
#kube-public       Active   10m
#kube-system       Active   10m
#?。igera-operator   Active   26s

一定要等待tigera-operator這個pod狀態(tài)為運行(作用是對calico進(jìn)行部署)

kubectl get pods -n tigera-operator
NAME                               READY   STATUS    RESTARTS   AGE
tigera-operator-597bf4ddf6-nstgk   1/1     Running   0          45s

4.2下載并編輯calico配置文件

wget https://raw.githubusercontent.com/projectcalico/calico/v3.26.3/manifests/custom-resources.yaml

vim custom-resources.yaml

	#cidr: 10.244.0.0/16
	
kubectl create -f custom-resources.yaml

kubectl get ns

kubectl get pods -n calico-system

watch kubectl get pods -n calico-system#監(jiān)視pods直至全部ready

檢查coredns是否已經(jīng)獲得ip地址

 kubectl get pods -n kube-system
NAME                                  READY   STATUS    RESTARTS   AGE
coredns-5dd5756b68-9g67g              1/1     Running   0          23m
coredns-5dd5756b68-nv68x              1/1     Running   0          23m
etcd-k8s-master1                      1/1     Running   0          23m
kube-apiserver-k8s-master1            1/1     Running   0          23m
kube-controller-manager-k8s-master1   1/1     Running   0          23m
kube-proxy-77m25                      1/1     Running   0          23m
kube-proxy-hlk5h                      1/1     Running   0          21m
kube-proxy-zjg9r                      1/1     Running   0          21m
kube-scheduler-k8s-master1            1/1     Running   0          23m
kubectl get pods -n kube-system -o wide
NAME                                  READY   STATUS    RESTARTS   AGE   IP               NODE          NOMINATED NODE   READINESS GATES
coredns-5dd5756b68-9g67g              1/1     Running   0          24m   10.244.159.131   k8s-master1   <none>           <none>
coredns-5dd5756b68-nv68x              1/1     Running   0          24m   10.244.159.129   k8s-master1   <none>           <none>
etcd-k8s-master1                      1/1     Running   0          24m   192.168.1.200    k8s-master1   <none>           <none>
kube-apiserver-k8s-master1            1/1     Running   0          24m   192.168.1.200    k8s-master1   <none>           <none>
kube-controller-manager-k8s-master1   1/1     Running   0          24m   192.168.1.200    k8s-master1   <none>           <none>
kube-proxy-77m25                      1/1     Running   0          24m   192.168.1.200    k8s-master1   <none>           <none>
kube-proxy-hlk5h                      1/1     Running   0          22m   192.168.1.201    k8s-worker1   <none>           <none>
kube-proxy-zjg9r                      1/1     Running   0          22m   192.168.1.202    k8s-worker2   <none>           <none>
kube-scheduler-k8s-master1            1/1     Running   0          24m   192.168.1.200    k8s-master1   <none>           <none>

檢查域名解析服務(wù)

kubectl get svc -n kube-system

 yum install bind-utils#安裝dig命令

dig -t a www.baidu.com @10.96.0.10
	;; ANSWER SECTION:
	www.baidu.com.          5       IN      A       198.18.0.169
    解析成功

4.3檢查集群是否可用

添加nginx-pod.yml文件創(chuàng)建pod

apiVersion: v1
kind: Pod
metadata:
  name: nginx
  labels:
    app: nginx
spec:
  containers:
  - name: nginx
    image: nginx:alpine
    ports:
    - containerPort: 80

使用命令 kubectl apply 創(chuàng)建 pod:

kubectl apply -f nginx-pod.yml

kubectl get pods nginx -o wide

watch kubectl get pods nginx -o wide
	NAME    READY   STATUS    RESTARTS   AGE    IP              NODE          NOMINATED NODE   READINESS GATES
	nginx   1/1     Running   0          3m3s   10.244.194.67   k8s-worker1   <none>           <none>

ready后使用curl工具測試

curl 10.244.194.67
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
html { color-scheme: light dark; }
body { width: 35em; margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif; }
</style>
</head>
<body>
<h1>Welcome to nginx!</h1>
<p>If you see this page, the nginx web server is successfully installed and
working. Further configuration is required.</p>

<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>

<p><em>Thank you for using nginx.</em></p>
</body>
</html>

測試外部訪問

kubectl get svc
NAME            TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE
kubernetes      ClusterIP   10.96.0.1       <none>        443/TCP        21d
nginx-service   NodePort    10.104.74.104   <none>        80:30080/TCP   21d

使用宿主機打開<控制面板ip>:30080即192.168.1.200:30080
基于containerd容器運行時,kubeadmin部署k8s 1.28集群,linux運維,CICD開發(fā),kubernetes,網(wǎng)絡(luò),容器

4.4查看集群健康狀態(tài)

kubectl cluster-info
Kubernetes control plane is running at https://192.168.1.200:6443
CoreDNS is running at https://192.168.1.200:6443/api/v1/namespaces/kube-system/services/kube-dns:dns/proxy

基于containerd容器運行時,kubeadmin部署k8s 1.28集群,linux運維,CICD開發(fā),kubernetes,網(wǎng)絡(luò),容器

基于containerd容器運行時,kubeadmin部署k8s 1.28集群,linux運維,CICD開發(fā),kubernetes,網(wǎng)絡(luò),容器

mkdir /.kube && cd /.kube

scp master1:/root/.kube/config .

有了這個文件就可以在目標(biāo)節(jié)點使用kubectl連接到apiserver,即可以使用kubectl命令管理集群文章來源地址http://www.zghlxwxcb.cn/news/detail-791403.html

到了這里,關(guān)于基于containerd容器運行時,kubeadmin部署k8s 1.28集群的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • K8s基礎(chǔ)2——部署單Master節(jié)點K8s集群、切換containerd容器運行時、基本命令

    K8s基礎(chǔ)2——部署單Master節(jié)點K8s集群、切換containerd容器運行時、基本命令

    兩種部署方式: kubeadm工具部署 。Kubeadm 是一個K8s 部署工具,提供 kubeadm init 和kubeadm join,用于快速部署 Kubernetes集群。 kubeadm 工具功能: kubeadm init:初始化一個 Master 節(jié)點。 kubeadm join:將工作節(jié)點加入集群。 kubeadm upgrade:升級 K8s 版本。 kubeadm token:管理 kubeadm join 使用的令

    2024年02月12日
    瀏覽(27)
  • K8S容器運行時從Docker切換為Containerd

    K8S從1.24版本起不再支持docker容器引擎,可選的替代品有 containerd 、 cri-o 、 podman 。下面演示將單個node節(jié)點的容器引擎從docker切換為containerd的過程。 檢查是否已經(jīng)加載內(nèi)核模塊 overlay 和 br_netfilter 。 如果沒有,手動加載內(nèi)核模塊: 檢查系統(tǒng)內(nèi)核參數(shù): 如果沒有開啟,手動調(diào)

    2024年02月09日
    瀏覽(36)
  • 安裝 k8s集群的問題:默認(rèn)容器運行時從 Docker 改為 Containerd

    安裝 k8s集群的問題:默認(rèn)容器運行時從 Docker 改為 Containerd

    ??The Begin??點點關(guān)注,收藏不迷路?? 從 Kuberetes 1.20 版本開始,Kuberetes官方 已經(jīng)將默認(rèn)的容器運行時從Docker改為Containerd。 因此,從 Kubernetes 1.20 開始,Kuberetes官方將支持使用 Docker和Containerd 作為容器運時,也意味著Kubemetes從Docker的依賴中解耦了出來。 在 Kubernetes1.24 及之后

    2024年04月14日
    瀏覽(27)
  • [kubernetes]二進(jìn)制部署k8s集群-基于containerd

    k8s從1.24版本開始不再直接支持docker,但可以自行調(diào)整相關(guān)配置,實現(xiàn)1.24版本后的k8s還能調(diào)用docker。其實docker自身也是調(diào)用containerd,與其k8s通過docker再調(diào)用containerd,不如k8s直接調(diào)用containerd,以減少性能損耗。 除了containerd,比較流行的容器運行時還有podman,但是podman官方安裝

    2024年02月12日
    瀏覽(30)
  • 記K8S集群工作節(jié)點,AnolisOS 8.6部署顯卡驅(qū)動集成Containerd運行時

    #安裝編譯環(huán)境 點擊 直達(dá)連接 nvidia高級搜索下載歷史版本驅(qū)動程序(下載歷史版本驅(qū)動) 安裝顯卡驅(qū)動 執(zhí)行nvidia-smi #安裝源 #安裝容器運行時

    2024年02月12日
    瀏覽(44)
  • 云原生Kubernetes:K8S集群實現(xiàn)容器運行時遷移(docker → containerd) 與 版本升級(v1.23.14 → v1.24.1)

    云原生Kubernetes:K8S集群實現(xiàn)容器運行時遷移(docker → containerd) 與 版本升級(v1.23.14 → v1.24.1)

    目錄 一、理論 1.K8S集群升級 2.環(huán)境 3.升級策略 4.master1節(jié)點遷移容器運行時(docker → containerd)? 5.master2節(jié)點遷移容器運行時(docker → containerd)? 6.node1節(jié)點容器運行時遷移(docker → containerd)? 7.升級集群計劃(v1.23.14 →?v1.24.1) 8.升級master1節(jié)點版本(v1.24.1) 9.升級master2節(jié)點版本

    2024年02月03日
    瀏覽(38)
  • kubeasz一鍵部署harbor、containerd運行時、高可用k8s(1.26.x)集群-Day 02

    kubeasz一鍵部署harbor、containerd運行時、高可用k8s(1.26.x)集群-Day 02

    如果自建機房,請把核心組件的機器分布到不同機柜中。 服務(wù)器可以是私有云的虛擬機或物理機,也可以是公有云環(huán)境的虛擬機環(huán)境,如果是公司托管的IDC環(huán)境,可以直 接將harbor和node節(jié)點部署在物理機環(huán)境,master節(jié)點、etcd、負(fù)載均衡等可以是虛擬機。 下面是我的學(xué)習(xí)環(huán)境

    2024年02月09日
    瀏覽(35)
  • kubeadmin部署k8s1.27.4

    kubeadmin部署k8s1.27.4

    IP 主機名 資源配置 系統(tǒng)版本 192.168.117.170 k8s-master 2c2g200g Centos7.9 192.168.117.171 k8s-node1 2c2g200g Centos7.9 192.168.117.172 k8s-node2 2c2g200g Centos7.9 三臺主機都要做 配置主機名 master node1 node2 master節(jié)點產(chǎn)成ssh密鑰拷貝給node節(jié)點實現(xiàn)免密登錄 所有節(jié)點 所有節(jié)點 所有節(jié)點 所有節(jié)點 配置docke

    2024年02月08日
    瀏覽(45)
  • k8s 使用 containerd 運行時配置 http 私服

    Kubernetes 從 v1.20 開始棄用 Docker,并推薦用戶切換到基于容器運行時接口(CRI)的容器引擎,如 containerd、cri-o 等。 目前使用的環(huán)境中使用了 Kubernetes v1.22.3,containerd 1.4.3,containerd 在配置私服配置上與直接使用 docker 有一定區(qū)別。 今天簡單聊一下如何配置私服,默認(rèn)使用 doc

    2024年02月12日
    瀏覽(24)
  • Ansible+Shell+Containerd部署k8s

    目錄 一.可聯(lián)網(wǎng)正常使用的虛擬機四臺 二.main主機部署ansible實現(xiàn)統(tǒng)一管理 1.下載ansible 2.主機清單和配置文件 3.下發(fā)密鑰進(jìn)行管理 三.node部署k8s基礎(chǔ)準(zhǔn)備 1.完善hosts文件,關(guān)閉firewalld,disabled掉selinux 2.時間同步、禁用交換分區(qū)、配置內(nèi)核和ipvs 四.部署k8s 1.此處用到的文件 2.具體

    2024年02月21日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包