国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

記錄一次K8s 集群故障(路由&Calico)

這篇具有很好參考價(jià)值的文章主要介紹了記錄一次K8s 集群故障(路由&Calico)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

3節(jié)點(diǎn)測(cè)試集群 k8s 1.17 docker 19.03

每個(gè)節(jié)點(diǎn)2個(gè)網(wǎng)卡 :

  • enp0s3? 用來(lái)橋接無(wú)線網(wǎng)卡用來(lái)連接外網(wǎng),因此IP不固定。
  • enp0s8? 192.168.56.0/24 用來(lái)和其它節(jié)點(diǎn)互通

某一天開機(jī) 突然發(fā)現(xiàn)大量pod異常,異常的Pod 全部沒(méi)有正常獲取到IP, service也都打不開了。

檢查控制平面

除了 kube-system下的api-server, etcd-admin, scheduler, controller manager, 以及各個(gè)3個(gè)節(jié)點(diǎn)的kube-proxy 處于running狀態(tài)。這說(shuō)明集群健康狀態(tài)是正常的,節(jié)點(diǎn)OS和系統(tǒng)資源也沒(méi)問(wèn)題,POD都被正常調(diào)度到node了。kube-proxy和calico-node都是ds, 使用Hostnetwork,因此IP就是所在節(jié)點(diǎn)IP。

記錄一次K8s 集群故障(路由&Calico),kubernetes,java,容器

Coredns 處于completed :

[root@admin ~ ]$k describe po  coredns-9d85f5447-sjs2j  -n kube-system

    State:          Terminated
      Reason:       Completed
      Exit Code:    0
      Started:      Thu, 15 Feb 2024 09:25:15 +0800
      Finished:     Thu, 15 Feb 2024 19:58:02 +0800
    Ready:          False
    Restart Count:  36
    Limits:
      memory:  170Mi
    Requests:
      cpu:        100m
      memory:     70Mi
    Liveness:     http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
    Readiness:    http-get http://:8181/ready delay=0s timeout=1s period=10s #success=1 #failure=3
    Environment:  <none>
    Mounts:
      /etc/coredns from config-volume (ro)
      /var/run/secrets/kubernetes.io/serviceaccount from coredns-token-j84s8 (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             False 
  ContainersReady   False 
  PodScheduled      True 
---
Events:
  Type    Reason          Age                    From            Message
  ----    ------          ----                   ----            -------
  Normal  SandboxChanged  4m3s (x575 over 129m)  kubelet, admin  Pod sandbox changed, it will be killed and re-created.

顯示sandbox 退出Kill了,看日志

[root@admin ~ ]$k logs?? coredns-9d85f5447-sjs2j? -n kube-system
.:53
[INFO] plugin/reload: Running configuration MD5 = 4e235fcc3696966e76816bcd9034ebc7
CoreDNS-1.6.5
linux/amd64, go1.13.4, c2fd1b2
[INFO] SIGTERM: Shutting down servers then terminating
[INFO] plugin/health: Going into lameduck mode for 5s

CNI組件calico-node 處于 Crashloopbackoff, 查看events 和Logs

Events:
? Type???? Reason???? Age??????????????????? From??????????? Message
? ----???? ------???? ----?????????????????? ----??????????? -------
? Warning? Unhealthy? 11m (x304 over 176m)?? kubelet, node2? Readiness probe failed: calico/node is not ready: felix is not ready: Get http://localhost:9099/readiness: dial tcp [::1]:9099: connect: connection refused
? Warning? BackOff??? 105s (x574 over 172m)? kubelet, node2? Back-off restarting failed container

[root@admin ~ ]$k logs? calico-node-7kvkf? -n kube-system
2024-02-16 04:58:08.483 [INFO][8] startup.go 259: Early log level set to info
2024-02-16 04:58:08.483 [INFO][8] startup.go 275: Using NODENAME environment for node name
2024-02-16 04:58:08.483 [INFO][8] startup.go 287: Determined node name: node2
2024-02-16 04:58:08.484 [INFO][8] k8s.go 228: Using Calico IPAM
2024-02-16 04:58:08.484 [INFO][8] startup.go 319: Checking datastore connection
2024-02-16 04:58:08.485 [INFO][8] startup.go 334: Hit error connecting to datastore - retry error=Get https://10.96.0.1:443/api/v1/nodes/foo: dial tcp 10.96.0.1:443: connect: network is unreachable
2024-02-16 04:58:09.486 [INFO][8] startup.go 334: Hit error connecting to datastore - retry error=Get https://10.96.0.1:443/api/v1/nodes/foo: dial tcp 10.96.0.1:443: connect: network is unreachable
2024-02-16 04:58:10.489 [INFO][8] startup.go 334: Hit error connecting to datastore - retry error=Get https://10.96.0.1:443/api/v1/nodes/foo: dial tcp 10.96.0.1:443: connect: network is unreachable
2024-02-16 04:58:11.499 [INFO][8] startup.go 334: Hit error connecting to datastore - retry error=Get https://10.96.0.1:443/api/v1/nodes/foo: dial tcp 10.96.0.1:443: connect: network is unreachable
2024-02-16 04:58:12.570 [INFO][8] startup.go 334: Hit error connecting to datastore - retry error=Get https://10.96.0.1:443/api/v1/nodes/foo: dial tcp 10.96.0.1:443: connect: network is unreachable
2024-02-16 04:58:13.571 [INFO][8] startup.go 334: Hit error connecting to datastore - retry error=Get https://10.96.0.1:443/api/v1/nodes/foo: dial tcp 10.96.0.1:443: connect: network is unreachable
2024-02-16 04:58:14.572 [INFO][8] startup.go 334: Hit error connecting to datastore - retry error=Get https://10.96.0.1:443/api/v1/nodes/foo: dial tcp 10.96.0.1:443: connect: network is unreachable
2024-02-16 04:58:15.578 [INFO][8] startup.go 334: Hit error connecting to datastore - retry error=Get https://10.96.0.1:443/api/v1/nodes/foo: dial tcp 10.96.0.1:443: connect: network is unreachable
2024-02-16 04:58:16.580 [INFO][8] startup.go 334: Hit error connecting to datastore - retry error=Get https://10.96.0.1:443/api/v1/nodes/foo: dial tcp 10.96.0.1:443: connect: network is unreachable
2024-02-16 04:58:17.581 [INFO][8] startup.go 334: Hit error connecting to datastore - retry error=Get https://10.96.0.1:443/api/v1/nodes/foo: dial tcp 10.96.0.1:443: connect: network is unreachable

查看calico contorller 日志,沒(méi)發(fā)現(xiàn)有用信息

[root@admin ~ ]$k logs? calico-kube-controllers-7489ff5b7c-6nl5p? -n kube-system
2024-02-15 01:25:31.218 [INFO][1] main.go 87: Loaded configuration from environment config=&config.Config{LogLevel:"info", ReconcilerPeriod:"5m", CompactionPeriod:"10m", EnabledControllers:"node", WorkloadEndpointWorkers:1, ProfileWorkers:1, PolicyWorkers:1, NodeWorkers:1, Kubeconfig:"", HealthEnabled:true, SyncNodeLabels:true, DatastoreType:"kubernetes"}
2024-02-15 01:25:31.222 [INFO][1] k8s.go 228: Using Calico IPAM
W0215 01:25:31.222664?????? 1 client_config.go:541] Neither --kubeconfig nor --master was specified.? Using the inClusterConfig.? This might not work.
2024-02-15 01:25:31.223 [INFO][1] main.go 108: Ensuring Calico datastore is initialized
2024-02-15 01:25:31.228 [INFO][1] main.go 182: Starting status report routine
2024-02-15 01:25:31.228 [INFO][1] main.go 364: Starting controller ControllerType="Node"
2024-02-15 01:25:31.228 [INFO][1] node_controller.go 133: Starting Node controller
2024-02-15 01:25:31.329 [INFO][1] node_controller.go 146: Node controller is now running
2024-02-15 01:25:31.345 [INFO][1] kdd.go 167: Node and IPAM data is in sync

calico-node 日志發(fā)現(xiàn)報(bào)錯(cuò)連接datastore tcp 10.96.0.1:443 失敗, 那么這里是etcd嗎 這個(gè)IP是誰(shuí)呢

檢查api-server 配置 發(fā)現(xiàn)這是svc ip range的第一個(gè)地址

[root@admin ~ ]$ps -ef|grep apiserver
root????? 1121 17490? 0 13:34 pts/0??? 00:00:00 grep --color=auto apiserver
root????? 2939? 2885? 1 09:59 ???????? 00:04:00 kube-apiserver --advertise-address=192.168.56.3 --allow-privileged=true --authorization-mode=Node,RBAC --client-ca-file=/etc/kubernetes/pki/ca.crt --enable-admission-plugins=NodeRestriction --enable-bootstrap-token-auth=true --etcd-cafile=/etc/kubernetes/pki/etcd/ca.crt --etcd-certfile=/etc/kubernetes/pki/apiserver-etcd-client.crt --etcd-keyfile=/etc/kubernetes/pki/apiserver-etcd-client.key --etcd-servers=https://127.0.0.1:2379 --insecure-port=0 --kubelet-client-certificate=/etc/kubernetes/pki/apiserver-kubelet-client.crt --kubelet-client-key=/etc/kubernetes/pki/apiserver-kubelet-client.key --kubelet-preferred-address-types=InternalIP,ExternalIP,Hostname --proxy-client-cert-file=/etc/kubernetes/pki/front-proxy-client.crt --proxy-client-key-file=/etc/kubernetes/pki/front-proxy-client.key --requestheader-allowed-names=front-proxy-client --requestheader-client-ca-file=/etc/kubernetes/pki/front-proxy-ca.crt --requestheader-extra-headers-prefix=X-Remote-Extra- --requestheader-group-headers=X-Remote-Group --requestheader-username-headers=X-Remote-User --secure-port=6443 --service-account-key-file=/etc/kubernetes/pki/sa.pub --service-cluster-ip-range=10.96.0.0/12 --tls-cert-file=/etc/kubernetes/pki/apiserver.crt --tls-private-key-file=/etc/kubernetes/pki/apiserver.key

?檢查SVC, 發(fā)現(xiàn)他是k8s本身這個(gè)服務(wù)

記錄一次K8s 集群故障(路由&Calico),kubernetes,java,容器

[root@admin ~ ]$k describe svc? kubernetes ?
Name:????????????? kubernetes
Namespace:???????? default
Labels:??????????? component=apiserver
?????????????????? provider=kubernetes
Annotations:?????? <none>
Selector:????????? <none>
Type:????????????? ClusterIP
IP:??????????????? 10.96.0.1
Port:????????????? https? 443/TCP
TargetPort:??????? 6443/TCP
Endpoints:???????? 192.168.56.3:6443
Session Affinity:? None
Events:??????????? <none>?

它是一個(gè)clusterIP類型服務(wù),指向的EP是 192.168.56.3:6443, 那么6443是誰(shuí)暴露的呢

[root@admin ~ ]$lsof -i:6443
COMMAND??? PID USER?? FD?? TYPE DEVICE SIZE/OFF NODE NAME
kubelet?? 1355 root?? 25u? IPv4? 37928????? 0t0? TCP admin:40182->admin:sun-sr-https (ESTABLISHED)
kube-apis 2939 root??? 5u? IPv6? 37530????? 0t0? TCP *:sun-sr-https (LISTEN)

記錄一次K8s 集群故障(路由&Calico),kubernetes,java,容器

確定它就是k8s kube-apiserver-admin這個(gè)pod所單獨(dú)暴露出來(lái)的svc, 是單例的pod,不屬于任何rs/ds/deployment/sts。

記錄一次K8s 集群故障(路由&Calico),kubernetes,java,容器

pod正常,svc故障導(dǎo)致calico無(wú)法訪問(wèn)apiserver,也更無(wú)法為pod分配IP以及在每個(gè)節(jié)點(diǎn)配置iptables規(guī)則。那為什么網(wǎng)絡(luò)不可達(dá)呢,這就要從路由層面查了。

一番排查有

因?yàn)榻裉靉dmin節(jié)點(diǎn)連接了有線網(wǎng)絡(luò),沒(méi)連WIFI,導(dǎo)致用來(lái)橋接的wifi網(wǎng)卡沒(méi)有通過(guò)DHCP獲取到IP、默認(rèn)網(wǎng)關(guān)路由信息,所以admin節(jié)點(diǎn)就會(huì)出現(xiàn)10.96.0.1 網(wǎng)絡(luò)不可達(dá)

[root@admin /etc/kubernetes ]$ansible k8s-1? -m shell? -a 'traceroute 10.96.0.1'
[WARNING]: Invalid characters were found in group names but not replaced, use -vvvv to see details
192.168.56.3 | FAILED | rc=1 >>
traceroute to 10.96.0.1 (10.96.0.1), 30 hops max, 60 byte packets
connect: Network is unreachablenon-zero return code
192.168.56.4 | CHANGED | rc=0 >>
traceroute to 10.96.0.1 (10.96.0.1), 30 hops max, 60 byte packets
?1? * * *
?2? * * *
?3? * * *
?4? * * *
?5? * * *
?6? * * *
?7? * * *
?8? * * *
?9? * * *
10? * * *
11? * * node1 (192.168.31.226)? 3008.015 ms !H
192.168.56.5 | CHANGED | rc=0 >>
traceroute to 10.96.0.1 (10.96.0.1), 30 hops max, 60 byte packets
?1? * * *
?2? * * *
?3? * * *
?4? * * *
?5? * * *
?6? * * *
?7? * * *
?8? * * *
?9? * * *
10? * * *
11? * * node2 (192.168.31.20)? 3005.846 ms !H

?[root@admin /etc/kubernetes ]$ansible k8s-1? -m shell? -a 'ip route'
[WARNING]: Invalid characters were found in group names but not replaced, use -vvvv to see details
192.168.56.4 | CHANGED | rc=0 >>
default via 192.168.31.1 dev enp0s3 proto dhcp metric 102
10.10.0.0/26 via 192.168.56.5 dev tunl0 proto bird onlink
10.10.0.128/26 via 192.168.56.3 dev tunl0 proto bird onlink
blackhole 10.10.0.192/26 proto bird
10.10.0.196 dev cali2473e8d3fe5 scope link
10.10.0.199 dev cali931cf856fe5 scope link
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1
192.168.31.0/24 dev enp0s3 proto kernel scope link src 192.168.31.226 metric 102
192.168.56.0/24 dev enp0s8 proto kernel scope link src 192.168.56.4 metric 101
192.168.56.3 | CHANGED | rc=0 >>? ## 默認(rèn)路由缺失!!
10.10.0.0/26 via 192.168.56.5 dev tunl0 proto bird onlink
blackhole 10.10.0.128/26 proto bird
10.10.0.129 dev calib35f38918a6 scope link
10.10.0.130 dev cali3d6a8137e9b scope link
10.10.0.131 dev calief752050065 scope link
10.10.0.189 dev cali9cd0964c823 scope link
10.10.0.192/26 via 192.168.56.4 dev tunl0 proto bird onlink
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1
192.168.56.0/24 dev enp0s8 proto kernel scope link src 192.168.56.3 metric 101
192.168.56.5 | CHANGED | rc=0 >>
default via 192.168.31.1 dev enp0s3 proto dhcp metric 102
blackhole 10.10.0.0/26 proto bird
10.10.0.37 dev caliae17495c610 scope link
10.10.0.38 dev cali7c21225184f scope link
10.10.0.128/26 via 192.168.56.3 dev tunl0 proto bird onlink
10.10.0.192/26 via 192.168.56.4 dev tunl0 proto bird onlink
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1
192.168.31.0/24 dev enp0s3 proto kernel scope link src 192.168.31.20 metric 102
192.168.56.0/24 dev enp0s8 proto kernel scope link src 192.168.56.5 metric 101
[root@admin /etc/kubernetes ]$

此時(shí)去檢查admin節(jié)點(diǎn)的路由表和iptables-nat表會(huì)發(fā)現(xiàn),雖然針對(duì)這個(gè)svc的dnat規(guī)則已經(jīng)配置,但是從網(wǎng)絡(luò)流量的處理順序來(lái)看,經(jīng)過(guò)PREROUTING鏈后接著檢查路由表,路由表匹配不到任何條目,也沒(méi)有default gw的話,就直接unreachable了

Chain KUBE-SEP-G5V522HWZT6RKRAC (1 references)
?pkts bytes target???? prot opt in???? out???? source?????????????? destination??????? ?
??? 0???? 0 KUBE-MARK-MASQ? all? --? *????? *?????? 192.168.56.3???????? 0.0.0.0/0????????? ?
??? 7?? 420 DNAT?????? tcp? --? *????? *?????? 0.0.0.0/0??????????? 0.0.0.0/0??????????? tcp to:192.168.56.3:6443

那么已知我的無(wú)線路由器地址為192.168.31.1, 它已經(jīng)是node1, node2的默認(rèn)網(wǎng)關(guān),顯然,無(wú)線路由器的路由表里肯定沒(méi)有我K8s集群內(nèi)部這個(gè)svc ip的相關(guān)條目并不知道向哪轉(zhuǎn)發(fā),ip數(shù)據(jù)包從admin host傳輸?shù)?0.96.0.1后面的podIP 到底跟網(wǎng)關(guān)地址有沒(méi)有關(guān)系呢?

很顯然? 沒(méi)有,只需要有一個(gè)路由條目能匹配就行,手動(dòng)把默認(rèn)網(wǎng)關(guān)配置到任何一個(gè)可達(dá)IP 都可以讓數(shù)據(jù)繼續(xù)往下流動(dòng),路由決策后從enp0s3網(wǎng)卡out, 繼續(xù)經(jīng)過(guò)FORWARD--->POSTROUTING鏈, 然后從enp0s8 in ,自下而上流經(jīng)協(xié)議棧,以太網(wǎng)-->IP-->socket 進(jìn)入apiserver這個(gè)Pod。

PS:這里因?yàn)橛昧薶ostnetwork, pod跟主機(jī)在一個(gè)netns下面。

實(shí)現(xiàn)10.96.0.1-->dnat to 192.168.56.3:6443 成功

記錄一次K8s 集群故障(路由&Calico),kubernetes,java,容器

?Pod 日志里也能看到,在我手動(dòng)配置默認(rèn)gw成功的瞬間,訪問(wèn)恢復(fù)正常。

記錄一次K8s 集群故障(路由&Calico),kubernetes,java,容器

此后,所有資源對(duì)k8s svc的訪問(wèn)正常,scheduler 和各個(gè)controller開始負(fù)責(zé)實(shí)現(xiàn)目標(biāo)狀態(tài),集群恢復(fù)正常。

當(dāng)然,這個(gè)問(wèn)題可能只有用vm測(cè)試會(huì)遇到吧,生產(chǎn)不會(huì)有這個(gè)問(wèn)題。

但是對(duì)于理解k8s CNI, SVC以及iptables 工作過(guò)程還有所幫助的,所以記錄一下。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-834496.html

到了這里,關(guān)于記錄一次K8s 集群故障(路由&Calico)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 問(wèn)題記錄:K8s中安裝calico,calico反復(fù)重啟,原因:版本未匹配

    問(wèn)題記錄:K8s中安裝calico,calico反復(fù)重啟,原因:版本未匹配

    K8s版本1.23.6 calico-node-反復(fù)重啟,READY狀態(tài)一直為0,STATUS為CrashLoopBackOff, 查看節(jié)點(diǎn)日志 沒(méi)有錯(cuò)誤,只有info信息 但是一直反復(fù)重啟,導(dǎo)致coredns一直處于未準(zhǔn)備好狀態(tài) calico與k8s的版本未匹配 刪除calico,重新安裝對(duì)應(yīng)k8s版本 先刪除calico pod 刪掉calico.yaml文件 重新下載 k8s版本1.

    2024年02月09日
    瀏覽(26)
  • ·[K8S:使用calico網(wǎng)絡(luò)插件]:解決集群節(jié)點(diǎn)NotReady問(wèn)題

    執(zhí)行: wget --no-check-certificate https://projectcalico.docs.tigera.io/archive/v3.25/manifests/calico.yaml 1.2.1:查看本機(jī)ip 網(wǎng)卡相關(guān)信息: 1.2.2:修改calico.yaml網(wǎng)卡interface相關(guān)信息 1.3.1:異常日志拋出: 1.3.2:場(chǎng)景一:執(zhí)行K8S admin config配置文件替換相關(guān)操作: 1.3.2:場(chǎng)景二:執(zhí)行K8S admin config配置文

    2024年02月14日
    瀏覽(32)
  • 【大數(shù)據(jù)】kubernetes(k8s)calico跨節(jié)點(diǎn)網(wǎng)絡(luò)不通的問(wèn)題及排錯(cuò)過(guò)程

    進(jìn)入節(jié)點(diǎn) k8s-node27 的pod,ping k8s-node28 節(jié)點(diǎn)上的pod的ip都不通,k8s-node28 節(jié)點(diǎn)ping k8s-node27 也不通,但是k8s-node27,k8s-node28 之間他們各自節(jié)點(diǎn)上的pod的ip之間是可以相互ping通。 排查過(guò)程: 這種情況讓我們想起了當(dāng)時(shí)設(shè)置路由轉(zhuǎn)發(fā)時(shí)候的配置,主機(jī)上有多個(gè)網(wǎng)卡,而k8s的calico網(wǎng)絡(luò)

    2024年02月11日
    瀏覽(30)
  • K8s:Kubernetes 故障排除方法論

    博文內(nèi)容為節(jié)譯整理 文中提到的工具大部分是商業(yè)軟件,不是開源的,作為了解 理解不足小伙伴幫忙指正 對(duì)每個(gè)人而言,真正的職責(zé)只有一個(gè):找到自我。然后在心中堅(jiān)守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是對(duì)大眾理想的懦弱回

    2024年02月15日
    瀏覽(17)
  • Kubernetes 集群calico網(wǎng)絡(luò)故障排查思路

    報(bào)錯(cuò) calico/node is not ready: BIRD is not ready: BGP not established with 172.16.0.20,172.16.0.30 訪問(wèn)k8s的dashboard界面無(wú)法訪問(wèn)網(wǎng)站,查看pod,未知原因?qū)е耤alico的Pod資源重新創(chuàng)建后無(wú)法啟動(dòng),顯示的是0/1狀態(tài)? Calico的Pod報(bào)錯(cuò)內(nèi)容 原因:calico沒(méi)有發(fā)現(xiàn)實(shí)node節(jié)點(diǎn)實(shí)際的網(wǎng)卡名稱 解決方法 調(diào)整cal

    2024年02月07日
    瀏覽(22)
  • 【云原生-K8s】kubeadm搭建安裝k8s集群v1.25版本完整教程【docker、網(wǎng)絡(luò)插件calico、中間層cri-docker】

    【云原生-K8s】kubeadm搭建安裝k8s集群v1.25版本完整教程【docker、網(wǎng)絡(luò)插件calico、中間層cri-docker】

    從 k8s 1.24開始,dockershim已經(jīng)從kubelet中移除,但因?yàn)闅v史問(wèn)題docker卻不支持kubernetes主推的CRI(容器運(yùn)行時(shí)接口)標(biāo)準(zhǔn),所以docker不能再作為k8s的容器運(yùn)行時(shí)了,即從k8s v1.24開始不再使用docker了 但是如果想繼續(xù)使用docker的話,可以在kubelet和docker之間加上一個(gè)中間層cri-docker。

    2024年02月03日
    瀏覽(59)
  • K8S容器的一則故障記錄

    K8S容器的一則故障記錄

    ?? kubelet 、pod持久化 metrics/vlalphal容器 kube-controller、apiserver ? ? XXX反饋說(shuō)某某業(yè)務(wù)服務(wù)異常,無(wú)法啟動(dòng),需要進(jìn)行協(xié)助排查。經(jīng)常會(huì)接到這樣一個(gè)需求,一開始無(wú)法清楚知道具體什么問(wèn)題,需要跟一線運(yùn)維人員詳細(xì)做溝通,了解故障問(wèn)題的細(xì)節(jié)。 ? ? 根據(jù)一線運(yùn)維人

    2024年02月02日
    瀏覽(21)
  • K8s(Kubernetes)學(xué)習(xí)(二):k8s集群搭建

    K8s(Kubernetes)學(xué)習(xí)(二):k8s集群搭建

    minikube 只是一個(gè) K8S 集群模擬器,只有一個(gè)節(jié)點(diǎn)的集群,只為測(cè)試用,master 和 worker 都在一起。 裸機(jī)安裝 至少需要兩臺(tái)機(jī)器(主節(jié)點(diǎn)、工作節(jié)點(diǎn)個(gè)一臺(tái)),需要自己安裝 Kubernetes 組件,配置會(huì)稍微麻煩點(diǎn)。 缺點(diǎn):配置麻煩,缺少生態(tài)支持,例如負(fù)載均衡器、云存儲(chǔ)。 直接用

    2024年02月09日
    瀏覽(37)
  • Kubernetes(k8s)一次性任務(wù):Job

    目錄 一.系統(tǒng)環(huán)境 二.前言 三.Kubernetes Job簡(jiǎn)介 四.創(chuàng)建一次性任務(wù)job 4.1 創(chuàng)建一個(gè)簡(jiǎn)單任務(wù)的job 4.2 創(chuàng)建需要執(zhí)行多次的job任務(wù) 五.測(cè)試job失敗重試次數(shù) 六.job任務(wù)使用示例:計(jì)算圓周率 七.總結(jié) 本文主要基于Kubernetes1.21.9和Linux操作系統(tǒng)CentOS7.4。 服務(wù)器版本 docker軟件版本 Kubern

    2024年02月07日
    瀏覽(33)
  • Kubernetes(K8S)集群部署

    Kubernetes(K8S)集群部署

    目錄 一、創(chuàng)建3臺(tái)虛擬機(jī) 二、為每臺(tái)虛擬機(jī)安裝Docker 三、安裝kubelet 3.1 安裝要求 3.2 為每臺(tái)服務(wù)器完成前置設(shè)置 3.3 為每臺(tái)服務(wù)器安裝kubelet、kubeadm、kubectl 四、使用kubeadm引導(dǎo)集群 4.1 master服務(wù)器 4.2 node1、node2服務(wù)器 4.3 初始化主節(jié)點(diǎn) 4.4 work節(jié)點(diǎn)加入集群 五、token過(guò)期怎么辦?

    2024年02月07日
    瀏覽(134)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包