国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

kubeadm init 失敗: failed to pull image k8s.gcr.io/etcd:3.4.13-0

這篇具有很好參考價(jià)值的文章主要介紹了kubeadm init 失敗: failed to pull image k8s.gcr.io/etcd:3.4.13-0。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一. kubeadm init 失敗

報(bào)錯(cuò):

error execution phase preflight: [preflight] Some fatal errors occurred:
	[ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-apiserver:v1.19.3: output: Error response from daemon: Get https://k8s.gcr.io/v2/: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)
, error: exit status 1
	[ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-controller-manager:v1.19.3: output: Error response from daemon: Get https://k8s.gcr.io/v2/: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)
, error: exit status 1
	[ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-scheduler:v1.19.3: output: Error response from daemon: Get https://k8s.gcr.io/v2/: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)
, error: exit status 1
	[ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-proxy:v1.19.3: output: Error response from daemon: Get https://k8s.gcr.io/v2/: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)
, error: exit status 1
	[ERROR ImagePull]: failed to pull image k8s.gcr.io/pause:3.2: output: Error response from daemon: Get https://k8s.gcr.io/v2/: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)
, error: exit status 1
	[ERROR ImagePull]: failed to pull image k8s.gcr.io/etcd:3.4.13-0: output: Error response from daemon: Get https://k8s.gcr.io/v2/: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)
, error: exit status 1
	[ERROR ImagePull]: failed to pull image k8s.gcr.io/coredns:1.7.0: output: 

二. 原因

因?yàn)閗8s.gcr.io鏡像庫(kù)在國(guó)內(nèi)需要翻墻,所以普通下載無(wú)法成功完成,可以更改一下下載的鏡像庫(kù)地址為國(guó)內(nèi)地址,下載后將標(biāo)簽打回和kubeadm config一致的方法解決。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-678003.html

  • 更改前查看鏡像地址
[root@master01 opt]# kubeadm config images list
I0825 12:06:37.047523   32435 version.go:252] remote version is much newer: v1.28.1; falling back to: stable-1.19
W0825 12:06:38.260046   32435 configset.go:348] WARNING: kubeadm cannot validate component configs for API groups [kubelet.config.k8s.io kubeproxy.config.k8s.io]
k8s.gcr.io/kube-apiserver:v1.19.16
k8s.gcr.io/kube-controller-manager:v1.19.16
k8s.gcr.io/kube-scheduler:v1.19.16
k8s.gcr.io/kube-proxy:v1.19.16
k8s.gcr.io/pause:3.2
k8s.gcr.io/etcd:3.4.13-0
k8s.gcr.io/coredns:1.7.0
  • 更改鏡像基地址
for i in `kubeadm config images list`; do
        imageName=${i#k8s.gcr.io/}
        docker pull registry.aliyuncs.com/google_containers/$imageName
        docker tag registry.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName
        docker rmi registry.aliyuncs.com/google_containers/$imageName
done;

三. 重新執(zhí)行 kubeadm init

[root@mater01 opt]# sudo kubeadm init


Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 101.16.97.0:6443 --token iplvm8.ex1q0syqg \
    --discovery-token-ca-cert-hash sha256:3266bbdab19c3640d43f486e63dc0a8660de5

到了這里,關(guān)于kubeadm init 失敗: failed to pull image k8s.gcr.io/etcd:3.4.13-0的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Kubernetes Pod報(bào)錯(cuò) filed to get sandbox image “k8s.gcr.io/pause:3.6“

    ? ? ? ? 最近工作中在部署Pod后發(fā)現(xiàn)無(wú)法正常啟動(dòng),查看Pod詳情后看到以下報(bào)錯(cuò)信息: ? ? ? ? 問題的原因是因?yàn)檎{(diào)度的這臺(tái)服務(wù)器上沒有?k8s.gcr.io/pause:3.6 鏡像,所以我們把鏡像下載到這臺(tái)服務(wù)器就可以了,執(zhí)行命令: ? ? ? ? 到此?Kubernetes Pod報(bào)錯(cuò) filed to get sandbox image

    2024年02月16日
    瀏覽(19)
  • k8s 啟動(dòng) elasticsearch 失敗: [failed to bind service]

    具體的錯(cuò)誤信息 k logs -f elasticsearch-0 -n kube-system 排查最后導(dǎo)致啟動(dòng)失敗的原因是,我的 elasticsearch 使用到了 pv、pvc 來(lái)做持久化存儲(chǔ),但是 elasticsearch 對(duì)我的掛載目錄沒有執(zhí)行權(quán)限。 chmod 777 elasticsearch 之后重啟 pod 即可。

    2024年02月15日
    瀏覽(22)
  • minikube安裝kubernetes以及start啟動(dòng)報(bào)錯(cuò)解決辦法:Unable to find image ‘gcr.io/k8s-minikube/kicbase

    minikube安裝kubernetes以及start啟動(dòng)報(bào)錯(cuò)解決辦法:Unable to find image ‘gcr.io/k8s-minikube/kicbase

    使用minikubu安裝kuburnetes集群,所遇到的問題,以及如何設(shè)置。 三種安裝方式,練習(xí)使用minikube簡(jiǎn)單化安裝,相關(guān)文檔資料如下所示: 安裝 Kubernetes 集群 安裝minikube之前要先安裝kubectl,以下是官方文檔安裝教程。文檔很詳細(xì),并且建議根據(jù)文檔安裝下“ 啟用 shell 自動(dòng)補(bǔ)全功能

    2024年02月11日
    瀏覽(23)
  • K8S之Kuboard顯示已導(dǎo)入【創(chuàng)建 X509KeyPair 失敗】 tls: failed to find any PEM data in certificate input

    K8S之Kuboard顯示已導(dǎo)入【創(chuàng)建 X509KeyPair 失敗】 tls: failed to find any PEM data in certificate input

    kuboard用著用著,突然發(fā)現(xiàn),只是 已導(dǎo)入 狀態(tài),而不是 已就緒 的狀態(tài),且重新導(dǎo)入kubeconfig顯示 【創(chuàng)建 X509KeyPair 失敗】 tls: failed to find any PEM data in certificate input 的提示。 具體問題截圖如下: 發(fā)現(xiàn)集群狀態(tài)正常 發(fā)現(xiàn)pod狀態(tài)也是運(yùn)行正常的 也是OK的 既然都看上去正常,那么,

    2024年02月04日
    瀏覽(76)
  • k8s kubectl 啟動(dòng)失敗Unit kubelet.service entered failed state.

    k8s kubectl 啟動(dòng)失敗Unit kubelet.service entered failed state.

    懷疑是配置文件的路徑出現(xiàn)問題 使用命令查看具體的報(bào)錯(cuò)信息: 報(bào)錯(cuò)顯示沒有?/usr/local/bin/kubelet 這個(gè)文件或目錄,實(shí)際ls查看是有的。 此時(shí)配置文件存在,懷疑是路徑出現(xiàn)問題,找不到。后來(lái)檢查kubelet.service文件,發(fā)現(xiàn)配置了 “WorkingDirectory”,給它指定了工作目錄。重新

    2024年01月16日
    瀏覽(24)
  • K8s錯(cuò)誤處理:Failed to create pod sandbox

    K8s創(chuàng)建Pod時(shí),使用kubectl describe命令查看Pod事件,發(fā)現(xiàn)在拉取鏡像前出現(xiàn)報(bào)錯(cuò),報(bào)錯(cuò)內(nèi)容為: 該文件為DNS配置文件,一般由systemd-resolved服務(wù)管理,不能由用戶修改。那些指點(diǎn)的人說(shuō)把Master里的復(fù)制一份到Node中的人,實(shí)際上是行不通的。 如果你的systemd-resolved服務(wù)狀態(tài)是active的

    2024年02月12日
    瀏覽(23)
  • k8s Failed to create pod sandbox錯(cuò)誤處理

    錯(cuò)誤信息: Failed to create pod sandbox: rpc error: code = Unknown desc = failed to get sandbox image \\\"k8s.gcr.io/pause:3.2\\\": failed to pull image \\\"k8s.gcr.io/pause:3.2\\\": failed to pull and unpack image \\\"k8s.gcr.io/pause:3.2\\\": failed to resolve reference \\\"k8s.gcr.io/pause:3.2\\\": failed to do request: Head \\\"https://k8s.gcr.io/v2/pause/manifests/3.2\\\": dial

    2024年02月16日
    瀏覽(26)
  • 記【k8s】 節(jié)點(diǎn)kubeadm join報(bào)錯(cuò):The HTTP call equal to ‘curl -sSL http://localhost:10248/healthz‘

    ??The Begin??點(diǎn)點(diǎn)關(guān)注,收藏不迷路??

    2024年04月26日
    瀏覽(25)
  • K8S:kubeadm搭建K8S+Harbor 私有倉(cāng)庫(kù)

    K8S:kubeadm搭建K8S+Harbor 私有倉(cāng)庫(kù)

    主機(jī)名及主機(jī)大小 主機(jī)ip 安裝軟件 master(2C/4G,cpu核心數(shù)要求大于2) 192.168.245.113 docker、kubeadm、kubelet、kubectl、flannel node01(2C/2G) 192.168.245.114 docker、kubeadm、kubelet、kubectl、flannel node02(2C/2G) 192.168.245.115 docker、kubeadm、kubelet、kubectl、flannel Harbor節(jié)點(diǎn)(hub.blue.com) 192.168.245

    2024年02月09日
    瀏覽(20)
  • 解決k8s node節(jié)點(diǎn)報(bào)錯(cuò): Failed to watch *v1.Secret: unknown

    解決k8s node節(jié)點(diǎn)報(bào)錯(cuò): Failed to watch *v1.Secret: unknown

    現(xiàn)象: ?這個(gè)現(xiàn)象是發(fā)生在k8s集群證書過(guò)期,重新續(xù)簽證書以后。 記得master節(jié)點(diǎn)的/etc/kubernetes/kubelet.conf文件已經(jīng)復(fù)制到node節(jié)點(diǎn)了。 但是為什么還是報(bào)這個(gè)錯(cuò),然后運(yùn)行證書檢查命令看一下:? ?看樣子是差/etc/kubernetes/pki/apiserver.crt文件。 但是從master節(jié)點(diǎn)scpapiserver.crt文件以

    2024年01月16日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包