国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

手動拉取 Kubernetes kubeadm 使用的容器鏡像

這篇具有很好參考價值的文章主要介紹了手動拉取 Kubernetes kubeadm 使用的容器鏡像。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

使用kubeadmin設(shè)置 Kubernetes 集群時,會使用一個init命令選項來設(shè)置 Kubernetes 控制平面。Kubernetes 有許多將在引導(dǎo)集群時使用的容器鏡像。

在互聯(lián)網(wǎng)訪問不可靠的環(huán)境中,或者當(dāng)您使用代理服務(wù)器時互聯(lián)網(wǎng)訪問受限,或者如果您的 Kubernetes 節(jié)點根本沒有互聯(lián)網(wǎng)訪問權(quán)限,預(yù)拉要使用的容器鏡像是有意義的.

首先,您需要打印 kubeadm 將使用的圖像列表(在安裝了 kubeadm 的機器上)。

<span style="background-color:#051e30"><span style="color:#ffffff"><code>$ <strong>sudo kubeadm config images list</strong>
k8s.gcr.io/kube-apiserver:v1.22.2
k8s.gcr.io/kube-controller-manager:v1.22.2
k8s.gcr.io/kube-scheduler:v1.22.2
k8s.gcr.io/kube-proxy:v1.22.2
k8s.gcr.io/pause:3.5
k8s.gcr.io/etcd:3.5.0-0
k8s.gcr.io/coredns/coredns:v1.8.4</code></span></span>

使用的默認注冊表是k8s.gcr.io,您可以選擇使用不同的注冊表。例如使用碼頭工人:

<span style="background-color:#051e30"><span style="color:#ffffff"><code>$<strong> sudo kubeadm config images list --image-repository docker.io</strong>
docker.io/kube-apiserver:v1.22.2
docker.io/kube-controller-manager:v1.22.2
docker.io/kube-scheduler:v1.22.2
docker.io/kube-proxy:v1.22.2
docker.io/pause:3.5
docker.io/etcd:3.5.0-0
docker.io/coredns:v1.8.4</code></span></span>

這將使用最新穩(wěn)定版本的 Kubernetes。您還可以指定要使用的 Kubernetes 版本,例如stable、latest

<span style="background-color:#051e30"><span style="color:#ffffff"><code>$ sudo kubeadm config images list --kubernetes-version latest</code></span></span>

使用 kubeadm 命令拉取容器鏡像

如果您的 Kubernetes 機器可以訪問互聯(lián)網(wǎng)以拉取容器鏡像,您可以使用 kubeadm 命令預(yù)拉取所需的鏡像:

<span style="background-color:#051e30"><span style="color:#ffffff"><code><strong><em>### Pull from default registry: k8s.gcr.io ###
</em></strong>$ sudo kubeadm config images pull

<strong><em>### Pull from a different registry, e.g docker.io or internal ###
</em></strong>$ sudo kubeadm config images pull --image-repository docker.io</code></span></span>

對于 docker,您可能需要登錄才能拉取圖像:

<span style="background-color:#051e30"><span style="color:#ffffff"><code>$<strong> sudo docker login</strong>
Login with your Docker ID to push and pull images from Docker Hub. If you don't have a Docker ID, head over to https://hub.docker.com to create one.
Username: jmutai
Password: 
WARNING! Your password will be stored unencrypted in /root/.docker/config.json.
Configure a credential helper to remove this warning. See
https://docs.docker.com/engine/reference/commandline/login/#credentials-store

Login Succeeded</code></span></span>

請注意,如果更改容器存儲庫,則需要在運行init時執(zhí)行相同的操作。

<span style="background-color:#051e30"><span style="color:#ffffff"><code>$ sudo kubeadm init --image-repository <registry> <options></code></span></span>

使用 docker / podman 命令拉取容器鏡像

對于無法訪問 Internet 的 Kubernetes 節(jié)點,您需要從本地計算機下載圖像并將其上傳到您的 Kubernetes 節(jié)點。

  • 使用kubeadm列出要在機器上使用的圖像
<span style="background-color:#051e30"><span style="color:#ffffff"><code>sudo kubeadm config images list </code></span></span>
  • 本地下載圖片
<span style="background-color:#051e30"><span style="color:#ffffff"><code>for image in k8s.gcr.io/kube-apiserver:v1.22.2 \
  k8s.gcr.io/kube-controller-manager:v1.22.2 \
  k8s.gcr.io/kube-scheduler:v1.22.2 \
  k8s.gcr.io/kube-proxy:v1.22.2 \
  k8s.gcr.io/pause:3.5 \
  k8s.gcr.io/etcd:3.5.0-0 \
  k8s.gcr.io/coredns:1.8.4; do
sudo docker pull $image;
done</code></span></span>

如果使用 podman:

<span style="background-color:#051e30"><span style="color:#ffffff"><code>for image in k8s.gcr.io/kube-apiserver:v1.22.2 \
  k8s.gcr.io/kube-controller-manager:v1.22.2 \
  k8s.gcr.io/kube-scheduler:v1.22.2 \
  k8s.gcr.io/kube-proxy:v1.22.2 \
  k8s.gcr.io/pause:3.5 \
  k8s.gcr.io/etcd:3.5.0-0 \
  k8s.gcr.io/coredns/coredns:v1.8.4; do
sudo docker pull $image;
done</code></span></span>
  • 將圖像另存為.tar文件
<span style="background-color:#051e30"><span style="color:#ffffff"><code># Example
mkdir ~/k8s-images
docker save k8s.gcr.io/kube-apiserver:v1.22.2 > ~/k8s-images/kube-apiserver.tar
# Do the same for all other images</code></span></span>
  • 將保存的圖像上傳到 Kubernetes 節(jié)點
<span style="background-color:#051e30"><span style="color:#ffffff"><code>rsync -av ~/k8s-images/* k8s-node:~/k8s-images/</code></span></span>
  • .tar圖像文件導(dǎo)入 Docker。
<span style="background-color:#051e30"><span style="color:#ffffff"><code>cd k8s-images/
ls * | while read image; do sudo docker load < $image; done</code></span></span>

這是一個示例負載輸出。

<span style="background-color:#051e30"><span style="color:#ffffff"><code># <strong>ls * | while read image; do docker load < $image; done</strong>
225df95e717c: Loading layer [==================================================>]  336.4kB/336.4kB
7c9b0f448297: Loading layer [==================================================>]  41.37MB/41.37MB
Loaded image: k8s.gcr.io/coredns:1.6.5
fe9a8b4f1dcc: Loading layer [==================================================>]  43.87MB/43.87MB
ce04b89b7def: Loading layer [==================================================>]  224.9MB/224.9MB
1b2bc745b46f: Loading layer [==================================================>]  21.22MB/21.22MB
Loaded image: k8s.gcr.io/etcd:3.4.3-0
fc4976bd934b: Loading layer [==================================================>]  53.88MB/53.88MB
f103db1d7ea4: Loading layer [==================================================>]  118.6MB/118.6MB
Loaded image: k8s.gcr.io/kube-apiserver:v1.17.0
01b437934b9d: Loading layer [==================================================>]  108.5MB/108.5MB
Loaded image: k8s.gcr.io/kube-controller-manager:v1.17.0
ac06623e44c6: Loading layer [==================================================>]   42.1MB/42.1MB
Loaded image: k8s.gcr.io/kube-scheduler:v1.17.0
682fbb19de80: Loading layer [==================================================>]  21.06MB/21.06MB
2dc2f2423ad1: Loading layer [==================================================>]  5.168MB/5.168MB
ad9fb2411669: Loading layer [==================================================>]  4.608kB/4.608kB
597151d24476: Loading layer [==================================================>]  8.192kB/8.192kB
0d8d54147a3a: Loading layer [==================================================>]  8.704kB/8.704kB
6bc5ae70fa9e: Loading layer [==================================================>]  37.81MB/37.81MB
Loaded image: k8s.gcr.io/kube-proxy:v1.17.0
e17133b79956: Loading layer [==================================================>]  744.4kB/744.4kB
Loaded image: k8s.gcr.io/pause:3.1</code></span></span>

確認圖像已導(dǎo)入:

<span style="background-color:#051e30"><span style="color:#ffffff"><code>[root@k8s-master-01 ~]# <strong>crictl images</strong>
IMAGE                                 TAG                 IMAGE ID            SIZE
docker.io/calico/apiserver            v3.20.1             4e7da027faaa7       53.2MB
docker.io/calico/cni                  v3.20.1             e69ccb66d1b65       146MB
docker.io/calico/kube-controllers     v3.20.1             5df320a38f63a       63.2MB
docker.io/calico/node                 v3.20.1             355c1ee44040b       158MB
docker.io/calico/pod2daemon-flexvol   v3.20.1             55fa5eb71e097       21.8MB
docker.io/calico/typha                v3.20.1             8473ae43d01b8       59.4MB
k8s.gcr.io/coredns/coredns            v1.8.4              8d147537fb7d1       47.7MB
k8s.gcr.io/etcd                       3.5.0-0             0048118155842       296MB
k8s.gcr.io/kube-apiserver             v1.22.2             e64579b7d8862       130MB
k8s.gcr.io/kube-controller-manager    v1.22.2             5425bcbd23c54       123MB
k8s.gcr.io/kube-proxy                 v1.22.2             873127efbc8a7       105MB
k8s.gcr.io/kube-scheduler             v1.22.2             b51ddc1014b04       53.9MB
k8s.gcr.io/pause                      3.2                 80d28bedfe5de       688kB
k8s.gcr.io/pause                      3.5                 ed210e3e4a5ba       690kB
quay.io/tigera/operator               v1.20.3             98e04bee27575       48.2MB</code></span></span>

然后,您可以使用本地添加的映像繼續(xù) Kubernetes 安裝。根據(jù)您使用的 CNI,如果進行離線安裝,您可能還需要提前拉取其鏡像。文章來源地址http://www.zghlxwxcb.cn/news/detail-642219.html

到了這里,關(guān)于手動拉取 Kubernetes kubeadm 使用的容器鏡像的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 使用 kubeadm 部署 kubernetes 1.27.1 版本

    使用 kubeadm 部署 kubernetes 1.27.1 版本

    目錄 前言 一、搭建前的準(zhǔn)備 1. 搭建k8s的平臺規(guī)劃 2. 服務(wù)器硬件配置要求 3. 搭建部署的方式 二、搭建流程 1. kubeadm搭建方式 a. 準(zhǔn)備工作,系統(tǒng)初始化 c. 設(shè)置一下ipv4,否則會失?。ù颂帪榭?,不設(shè)置無法初始化成功) d. 安裝containerd? e. 安裝kubectl、kubelet、kubeadm? f. master節(jié)點

    2024年02月06日
    瀏覽(26)
  • 如何清理Kubernetes集群中的舊容器和鏡像

    Kubernetes有一個內(nèi)置的垃圾收集系統(tǒng),可以清理不使用的鏡像。它由Kubelet管理,它是Kubernetes 的工作進程并且在每個節(jié)點上運行。 Kubelet 會自動監(jiān)控未使用的圖像,并定期刪除它們( https://kubernetes.io/docs/concepts/cluster-administration/kubelet-garbage-collection) 。通過評估鏡像的磁盤使用情

    2024年02月16日
    瀏覽(20)
  • 【C站首發(fā)】全網(wǎng)最新Kubernetes(K8s)1.28版本探秘及部署 基于Containerd容器運行時(100年證書kubeadm)

    【C站首發(fā)】全網(wǎng)最新Kubernetes(K8s)1.28版本探秘及部署 基于Containerd容器運行時(100年證書kubeadm)

    序號 操作系統(tǒng)及版本 備注 1 CentOS7u9 需求 CPU 內(nèi)存 硬盤 角色 主機名 值 8C 8G 1024GB master k8s-master01 值 8C 16G 1024GB worker(node) k8s-worker01 值 8C 16G 1024GB worker(node) k8s-worker02 1.3.1 主機名配置 由于本次使用3臺主機完成kubernetes集群部署,其中1臺為master節(jié)點,名稱為k8s-master01;其中2臺為wor

    2024年02月08日
    瀏覽(40)
  • 使用kubeadm安裝和設(shè)置Kubernetes(k8s)

    使用kubeadm安裝和設(shè)置Kubernetes(k8s)

    kubeadm是官方社區(qū)推出的一個用于快速部署kubernetes集群的工具。 這個工具能通過兩條指令完成一個kubernetes集群的部署: 使用kubeadm方式搭建K8s集群主要分為以下幾步 準(zhǔn)備三臺虛擬機,同時安裝操作系統(tǒng)CentOS 7.x 對三個安裝之后的操作系統(tǒng)進行初始化操作 在三個節(jié)點安裝 dock

    2024年02月12日
    瀏覽(56)
  • Kubernetes(K8S)拉取本地鏡像部署Pod 實現(xiàn)類似函數(shù)/微服務(wù)功能(可設(shè)置參數(shù)并實時調(diào)用)

    Kubernetes(K8S)拉取本地鏡像部署Pod 實現(xiàn)類似函數(shù)/微服務(wù)功能(可設(shè)置參數(shù)并實時調(diào)用)

    ?????????以兩數(shù)相加求和為例,在kubernetes集群 拉取本地的鏡像 ,實現(xiàn)如下效果: ????????1.實現(xiàn)兩數(shù)相加求和 ????????2.可以通過curl 實時調(diào)用 , 參數(shù) 以GET方式提供,并得到結(jié)果。(類似 調(diào)用函數(shù) ) ? ? ? ? 需要準(zhǔn)備如下的文件。文件名與對應(yīng)的功能如下所示

    2024年01月20日
    瀏覽(29)
  • Kubernetes技術(shù)--使用kubeadm快速部署一個K8s集群

    Kubernetes技術(shù)--使用kubeadm快速部署一個K8s集群

    這里我們配置一個 單master集群 。( 一個Master節(jié)點,多個Node節(jié)點 ) 1.硬件環(huán)境準(zhǔn)備 一臺或多臺機器,操作系統(tǒng) CentOS7.x-86_x64 。這里我們使用安裝了CentOS7的三臺虛擬機 硬件配置 : 2GB或更多RAM , 2個CPU或更多CPU , 硬盤30GB或更多 2.主機名稱和IP地址規(guī)劃 3. 初始化準(zhǔn)備工作 (1).關(guān)

    2024年02月10日
    瀏覽(122)
  • centos安裝部署Kubernetes(k8s)步驟使用kubeadm方式

    centos安裝部署Kubernetes(k8s)步驟使用kubeadm方式

    機器地址: 192.168.0.35 k8s-master 192.168.0.39 k8s-node1 192.168.0.116 k8s-node2 修改每臺機器的名字 關(guān)閉防火墻和selinux 臨時關(guān)閉selinux: 永久關(guān)閉: 修改selinux為disabled或者permissive 重啟生效 配置本地解析 確保每個節(jié)點MAC地址和 product_uuid 的唯一性 同步時間 如果各機器上時間都沒有問題

    2024年02月06日
    瀏覽(32)
  • kubernetes新版本使用kubeadm init的超全問題解決和建議

    這一篇能節(jié)省你在?kubeadm init 時遇到問題的排錯時間??。 整合了網(wǎng)上大佬的方案???♂?和官方建議??。 個人被這個問題折磨了好久??,希望總結(jié)出來能幫助到大家~ 目錄 自定義配置文件初始化的建議 關(guān)注配置:? advertiseAddress imageRepository nodeRegistration.criSocket 問題解

    2023年04月08日
    瀏覽(15)
  • kubernetes部署應(yīng)用時從harbor拉取鏡像失?。簉epository does not exist or may require ‘docker login‘

    問題描述: kubernetes部署應(yīng)用時,pod啟動失敗,通過kubectl describe pod查看失敗原因類似下面的錯誤: Failed to pull image \\\"xxxx/oneapi-2/authtenantserver:15\\\": rpc error: code = Unknown desc = Error response from daemon: pull access denied for xxxx/oneapi-2/authtenantserver, repository does not exist or may require \\\'docker login\\\'

    2024年02月16日
    瀏覽(47)
  • Kubernetes技術(shù)--使用kubeadm搭建高可用的K8s集群(貼近實際環(huán)境)

    Kubernetes技術(shù)--使用kubeadm搭建高可用的K8s集群(貼近實際環(huán)境)

    1.高可用k8s集群架構(gòu)(多master) 2.安裝硬件要求 一臺或多臺機器,操作系統(tǒng) CentOS7.x-86_x64 硬件配置:2GB或更多RAM,2個CPU或更多CPU,硬盤30GB或更多 注: 這里屬于教學(xué)環(huán)境,所以使用三臺虛擬機模擬實現(xiàn)。 3.部署規(guī)劃 4.部署前準(zhǔn)備 (1).關(guān)閉防火墻 (2).關(guān)閉selinux (3).關(guān)閉swap (4).根據(jù)規(guī)

    2024年02月10日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包