国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

K8s Error: ImagePullBackOff 故障排除

這篇具有很好參考價(jià)值的文章主要介紹了K8s Error: ImagePullBackOff 故障排除。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

Error: ImagePullBackOff 故障排除

1. 起因

起因是要在一組k8s環(huán)境下做個(gè)Prometheus的測(cè)試,當(dāng)時(shí)虛擬機(jī)用完直接暫停了.
啟動(dòng)完master和node節(jié)點(diǎn)后重啟了這些節(jié)點(diǎn).
當(dāng)檢查dashboard時(shí)候發(fā)現(xiàn)Pod處于ImagePullBackOff狀態(tài),使用命令查看詳細(xì)情況

kubectl describe pods -n kubernetes-dashboard kubernetes-dashboard-6948fdc5fd-7szc9

發(fā)現(xiàn)鏡像拉取失敗

1.1 報(bào)錯(cuò)信息如下:

Events:
  Type     Reason          Age                From               Message
  ----     ------          ----               ----               -------
  Normal   Scheduled       25s                default-scheduler  Successfully assigned kubernetes-dashboard/kubernetes-dashboard-6948fdc5fd-7szc9 to 192.168.31.112
  Normal   SandboxChanged  23s                kubelet            Pod sandbox changed, it will be killed and re-created.
  Normal   BackOff         20s (x3 over 22s)  kubelet            Back-off pulling image "harbor.intra.com/baseimages/kubernetesui/dashboard:v2.4.0"
  Warning  Failed          20s (x3 over 22s)  kubelet            Error: ImagePullBackOff
  Normal   Pulling         9s (x2 over 24s)   kubelet            Pulling image "harbor.intra.com/baseimages/kubernetesui/dashboard:v2.4.0"
  Warning  Failed          9s (x2 over 24s)   kubelet            Failed to pull image "harbor.intra.com/baseimages/kubernetesui/dashboard:v2.4.0": rpc error: code = Unknown desc = Error response from daemon: Get "https://harbor.intra.com/v2/": x509: certificate signed by unknown authority
  Warning  Failed          9s (x2 over 24s)   kubelet            Error: ErrImagePull

2. 排查思路

這個(gè)故障明顯是由于node節(jié)點(diǎn)拉取harbor中鏡像失敗造成.那么可能的原因就是以下幾點(diǎn),我們對(duì)此一一排查

  1. harbor.intra.com解析錯(cuò)誤或者服務(wù)器沒(méi)有啟動(dòng),使用ping命令排查
  2. harbor.intra.com上harbor服務(wù)異常造成,使用網(wǎng)頁(yè)瀏覽或者curl命令排查
  3. node節(jié)點(diǎn)到harbor身份驗(yàn)證異常,docker login檢查.檢查daemon.json和config.json

2.1 ping harbor

直接到node2節(jié)點(diǎn)ping

root@k8s-node-2:~# ping harbor.intra.com -c 3
PING harbor.intra.com (192.168.31.189) 56(84) bytes of data.
64 bytes from harbor.intra.com (192.168.31.189): icmp_seq=1 ttl=64 time=0.249 ms
64 bytes from harbor.intra.com (192.168.31.189): icmp_seq=2 ttl=64 time=1.36 ms
64 bytes from harbor.intra.com (192.168.31.189): icmp_seq=3 ttl=64 time=0.108 ms

現(xiàn)在確定ping是正常的,那么至少服務(wù)器我們開(kāi)了

2.2 檢查harbor服務(wù)是否正常

用curl測(cè)試下harbor是否通

root@k8s-node-2:~# curl https://harbor.intra.com/harbor -k
<!doctype html>
<html>

<head>
    <meta charset="utf-8">
    <title>Harbor</title>
    <base href="/">
    <meta name="viewport" content="width=device-width, initial-scale=1">
    <link rel="icon" type="image/x-icon" href="favicon.ico?v=2">
    <link rel="preload" as="style" href="./light-theme.css?buildTimestamp=1639627836207">
    <link rel="preload" as="style" href="./dark-theme.css?buildTimestamp=1639627836207">
<link rel="stylesheet" href="styles.e71e5822ddf4adf262c4.css"></head>
<body>
    <harbor-app>
        <div class="spinner spinner-lg app-loading app-loading-fixed">
            Loading...
        </div>
    </harbor-app>
<script src="runtime.5ed5a3869dd69991407a.js" defer></script><script src="polyfills.a5e9bc0ea6dbbbdc0878.js" defer></script><script src="scripts.fc1928a0f22676249790.js" defer></script><script src="main.8b949aee92f43fe7c3ab.js" defer></script></body>

這里我們確認(rèn)了harbor服務(wù)是正常的,通過(guò)網(wǎng)頁(yè)也能訪問(wèn)到
k8s重啟后imagepullbackoff,Linux,云原生,kubernetes,容器,云原生

2.3 docker login harbor

此時(shí)發(fā)生了報(bào)錯(cuò),明顯是驗(yàn)證失敗了.且失敗原因是沒(méi)有授權(quán)的倉(cāng)庫(kù)造成的.

root@k8s-node-2:~# docker login https://harbor.intra.com
Password: ting with existing credentials...
Error: Password Requiredrror: Error response from daemon: Get "https://harbor.intra.com/v2/": x509: certificate signed by unknown authority

那么我們到node1上試下是否登錄harbor成功

root@k8s-node-1:~# docker login https://harbor.intra.com
Authenticating with existing credentials...
WARNING! Your password will be stored unencrypted in /root/.docker/config.json.
Configure a credential helper to remove this warning. See
https://docs.docker.com/engine/reference/commandline/login/#credentials-store

Login Succeeded

那么我們將node1的/etc/docker/daemon.json同步到node2上

root@k8s-node-1:~# scp /etc/docker/daemon.json 192.168.31.112:/etc/docker/daemon.json
root@192.168.31.112's password:
daemon.json      

再到node2上重啟docker服務(wù),此時(shí)可以看到授權(quán)的鏡像倉(cāng)庫(kù)里有了https://harbor.intra.com/

root@k8s-node-2:~# systemctl restart docker
root@k8s-node-2:~# docker info |tail -10
WARNING: No swap limit support
WARNING: bridge-nf-call-iptables is disabled
WARNING: bridge-nf-call-ip6tables is disabled
 Insecure Registries:
  127.0.0.0/8
  192.168.31.0/24
 Registry Mirrors:
  https://docker.mirrors.ustc.edu.cn/
  http://hub-mirror.c.163.com/
  https://harbor.intra.com/
  https://192.168.31.189/
 Live Restore Enabled: true

3. 解決

嘗試再次登錄harbor并拉取鏡像

root@k8s-node-2:~# docker login https://harbor.intra.com
Authenticating with existing credentials...
WARNING! Your password will be stored unencrypted in /root/.docker/config.json.
Configure a credential helper to remove this warning. See
https://docs.docker.com/engine/reference/commandline/login/#credentials-store

Login Succeeded
root@k8s-node-2:~# docker pull harbor.intra.com/baseimages/kubernetesui/dashboard:v2.4.0
v2.4.0: Pulling from baseimages/kubernetesui/dashboard
Digest: sha256:2d2ac5c357a97715ee42b2186fda39527b826fdd7df9f7ade56b9328efc92041
Status: Image is up to date for harbor.intra.com/baseimages/kubernetesui/dashboard:v2.4.0
harbor.intra.com/baseimages/kubernetesui/dashboard:v2.4.0

此時(shí)dashboard pod狀態(tài)也變成了Running文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-822885.html

root@k8s-master-01:~# kubectl get pod -n kubernetes-dashboard
NAME                                         READY   STATUS    RESTARTS      AGE
dashboard-metrics-scraper-6848d4dd7d-g7k6b   1/1     Running   4 (49m ago)   226d
kubernetes-dashboard-6948fdc5fd-7szc9        1/1     Running   0             6m2s

到了這里,關(guān)于K8s Error: ImagePullBackOff 故障排除的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • K8S集群中Pod資源處于ImagePullBackOff狀態(tài)排查思路

    ImagePullBackOff狀態(tài)表示容器的鏡像拉取失敗,可能存在以下幾點(diǎn)原因: 拉取鏡像時(shí)間較長(zhǎng)導(dǎo)致超時(shí),從而導(dǎo)致鏡像拉取失敗,部署完Docker后,一定要添加上阿里云的鏡像加速器,否則拉取鏡像是非常慢的,很容易就會(huì)導(dǎo)致鏡像拉取失敗。 鏡像配置有誤,指定的鏡像在公有倉(cāng)庫(kù)

    2024年02月14日
    瀏覽(25)
  • K8s的Pod出現(xiàn)Init:ImagePullBackOff問(wèn)題的解決(以calico為例)

    K8s的Pod出現(xiàn)Init:ImagePullBackOff問(wèn)題的解決(以calico為例)

    對(duì)于這類問(wèn)題的解決思路應(yīng)該都差不多,本文以calico插件安裝為例,發(fā)現(xiàn)有個(gè)Pod的鏡像沒(méi)有pull成功 從上圖發(fā)現(xiàn)是docker拉取\\\"calico/cni:v3.15.1\\\"失敗,那么我們手動(dòng)拉取一下 Note :我們需要知道這個(gè)pod是部署在哪個(gè)node上,然后才能在具體的Node上拉取鏡像 發(fā)現(xiàn)是在k8snode1主機(jī)上,那

    2024年02月11日
    瀏覽(32)
  • 【K8S系列】深入解析k8s網(wǎng)絡(luò)之—網(wǎng)絡(luò)故障

    【K8S系列】深入解析k8s網(wǎng)絡(luò)之—網(wǎng)絡(luò)故障

    你只管努力,其他交給時(shí)間,時(shí)間會(huì)證明一切。 文章標(biāo)記顏色說(shuō)明: 黃色 :重要標(biāo)題 紅色 :用來(lái)標(biāo)記結(jié)論 綠色 :用來(lái)標(biāo)記一級(jí)論點(diǎn) 藍(lán)色 :用來(lái)標(biāo)記二級(jí)論點(diǎn) Kubernetes (k8s) 是一個(gè)容器編排平臺(tái),允許在容器中運(yùn)行應(yīng)用程序和服務(wù)。今天學(xué)習(xí)一下k8s網(wǎng)絡(luò)故障相關(guān)的的內(nèi)容

    2024年02月08日
    瀏覽(19)
  • K8S故障排查

    K8S故障排查

    故障現(xiàn)象:部署pod時(shí),報(bào)錯(cuò)沒(méi)發(fā)調(diào)度到節(jié)點(diǎn)。 排查步驟: 1、查看集群的狀態(tài) 2、查看k8s組件的狀態(tài)-kubelet,kube-apiservice 3、查看docker的Cgroup driver和k8s的Cgroup driver類型,發(fā)現(xiàn)docker是cgroup,k8s是systemd,問(wèn)題點(diǎn)找到了。

    2024年02月15日
    瀏覽(18)
  • k8s重啟服務(wù)(kubectl)

    How to Restart Kubernetes Pods With Kubectl Deployments

    2024年02月11日
    瀏覽(22)
  • 【k8s問(wèn)題定位】k8s中的pod不停的重啟,定位問(wèn)題原因與解決方法

    【k8s問(wèn)題定位】k8s中的pod不停的重啟,定位問(wèn)題原因與解決方法

    現(xiàn)象: running的pod,短時(shí)間內(nèi)重啟次數(shù)太多 ? 定位問(wèn)題方法: 查看pod日志 本次使用以下命令,解決了問(wèn)題 問(wèn)題原因: OOM,pod被kill掉,重啟了( 內(nèi)存不夠用 ) ? 查看該服務(wù)的deployment.yaml文件 發(fā)現(xiàn)我們deployment.yaml對(duì)服務(wù)的內(nèi)存使用,做了限制 解決方法: 將limit的memory數(shù)值提高,然后

    2024年02月09日
    瀏覽(38)
  • k8s master組件無(wú)法重啟

    k8s master組件無(wú)法重啟

    1.案例 k8s的master組件出錯(cuò),刪掉pod重新拉起也無(wú)法正常啟動(dòng) kubectl get pod -n kube-system? 可以看到controller和scheduler組件都顯示異常 ?kubectl describe pod kube-apiserver-k8s-master03 -n kube-system 通過(guò)describe查看組件容器的詳細(xì)信息也并沒(méi)有報(bào)錯(cuò)輸出 kubectl delete pod kube-controller-manager-k8s-master0

    2024年02月09日
    瀏覽(17)
  • K8S - 架構(gòu)、常用K8S命令、yaml資源清單部署、Ingress、故障排查、存儲(chǔ)卷

    K8S - 架構(gòu)、常用K8S命令、yaml資源清單部署、Ingress、故障排查、存儲(chǔ)卷

    K8S官網(wǎng)文檔:https://kubernetes.io/zh/docs/home/ 學(xué)習(xí)東西還是要從官方文檔入手; 用于管理、擴(kuò)展、自動(dòng)部署容器; 其實(shí)就是 對(duì)多個(gè)跨機(jī)器的Docker集群; 服務(wù)發(fā)現(xiàn)和負(fù)載均衡 Kubernetes 可以使用 DNS 名稱或自己的 IP 地址來(lái)暴露容器。 如果進(jìn)入容器的流量很大, Kubernetes 可以負(fù)載均

    2024年02月09日
    瀏覽(118)
  • K8S容器的一則故障記錄

    K8S容器的一則故障記錄

    ?? kubelet 、pod持久化 metrics/vlalphal容器 kube-controller、apiserver ? ? XXX反饋說(shuō)某某業(yè)務(wù)服務(wù)異常,無(wú)法啟動(dòng),需要進(jìn)行協(xié)助排查。經(jīng)常會(huì)接到這樣一個(gè)需求,一開(kāi)始無(wú)法清楚知道具體什么問(wèn)題,需要跟一線運(yùn)維人員詳細(xì)做溝通,了解故障問(wèn)題的細(xì)節(jié)。 ? ? 根據(jù)一線運(yùn)維人

    2024年02月02日
    瀏覽(21)
  • K8S deployment 重啟的三種方法

    一般重啟deployment,常規(guī)操作是刪掉對(duì)應(yīng)的pod, 但如果有多個(gè)副本集的話,一個(gè)個(gè)刪很麻煩。 除了刪除pod,還可以: PS: rollout restart需要集群版本大于1.15才能支持 以上重啟方法均會(huì)生成Replicasets(副本集), 可通進(jìn)行回滾:

    2024年02月14日
    瀏覽(22)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包