国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

K8S集群實踐之九: Ceph

這篇具有很好參考價值的文章主要介紹了K8S集群實踐之九: Ceph。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Rook is an open source cloud-native storage orchestrator, providing the platform, framework, and support for Ceph storage to natively integrate with cloud-native environments.1. 說明

因香橙派和樹莓派資源所限,轉移到基于VirtualBox建立的VMs繼續(xù)實踐。

虛擬機環(huán)境列表:

Host Name IP 配置 備注
k8s-c0-master0 10.0.3.6 Ubuntu 22.04.3 LTS 8核32G, 200G(sda) + 100G(sdb) 虛擬機
k8s-c0-node0 10.0.3.7 Ubuntu 22.04.3 LTS 4核8G, 200G(sda) + 100G(sdb) ...
k8s-c0-node1 10.0.3.8 Ubuntu 22.04.3 LTS 4核8G, 200G(sda) + 100G(sdb) ...

2.?準備工作

  • 下載 ubuntu-22.04.2-live-server-amd64.iso,并映射到啟動光盤
  • 虛擬機設置雙網(wǎng)卡,1作橋接(同網(wǎng)訪問),1作NAT網(wǎng)絡(K8s內(nèi)網(wǎng))
  • 安裝時選擇鏡像(重要)https://mirrors.aliyun.com/ubuntu
  • 初始化K8s環(huán)境
  • 為避免CTR拉取鏡像失敗,設置容器代理,編輯 /lib/systemd/system/containerd.service
    [Service]
    Environment="HTTP_PROXY=http://192.168.0.108:1081"
    Environment="HTTPS_PROXY=http://192.168.0.108:1081"
    Environment="NO_PROXY=aliyun.com,aliyuncs.com,huaweicloud.com,k8s-master-0,k8s-master-1,k8s-worker-0,localhost,127.0.0.1,10.0.0.0/8,172.16.0.0/12,192.168.0.0/16"
    systemctl daemon-reload && systemctl restart containerd

3. 方案及安裝步驟

3.1 Rook

Rook is an open source cloud-native storage orchestrator, providing the platform, framework, and support for Ceph storage to natively integrate with cloud-native environments.

3.2 安裝要求

  • Raw devices (no partitions or formatted filesystems)
  • Raw partitions (no formatted filesystem)?
  • LVM Logical Volumes (no formatted filesystem)
  • Persistent Volumes available from a storage class in?block?mode

一句話:有個裸盤 (100G /dev/sdb)

保證至少3個節(jié)點,去掉污點

kubectl taint nodes --all node-role.kubernetes.io/control-plane-

3.3 安裝步驟

1. 獲取rook倉庫到安裝路徑,如:/k8s_apps/rook

git clone --single-branch --branch v1.12.6 https://github.com/rook/rook.git

2. 編寫安裝腳本,/k8s_apps/scripts/k8s-rook-ceph.sh

#!/bin/bash

kubectl apply -f /k8s_apps/rook/deploy/examples/crds.yaml
kubectl apply -f /k8s_apps/rook/deploy/examples/common.yaml
kubectl apply -f /k8s_apps/rook/deploy/examples/operator.yaml

kubectl -n rook-ceph get pod

kubectl apply -f /k8s_apps/rook/deploy/examples/cluster.yaml

3. 編寫刪除腳本,/k8s_apps/scripts/rook-ceph-delete.sh

#!/bin/bash

kubectl delete -f /k8s_apps/rook/deploy/examples/wordpress.yaml
kubectl delete -f /k8s_apps/rook/deploy/examples/mysql.yaml
kubectl delete -n rook-ceph cephblockpool replicapool
kubectl delete storageclass rook-ceph-block
kubectl delete -f /k8s_apps/rook/deploy/examples/csi/cephfs/kube-registry.yaml
kubectl delete storageclass csi-cephfs

kubectl -n rook-ceph patch cephcluster rook-ceph --type merge -p '{"spec":{"cleanupPolicy":{"confirmation":"yes-really-destroy-data"}}}'

kubectl -n rook-ceph delete cephcluster rook-ceph

kubectl -n rook-ceph get cephcluster


kubectl delete -f /k8s_apps/rook/deploy/examples/operator.yaml
kubectl delete -f /k8s_apps/rook/deploy/examples/common.yaml
kubectl delete -f /k8s_apps/rook/deploy/examples/crds.yaml

4. 執(zhí)行安裝,一切正常的話,如下圖,不正常的話,執(zhí)行刪除腳本,排除問題后重來。

K8S集群實踐之九: Ceph,K8s,kubernetes,ceph,容器文章來源地址http://www.zghlxwxcb.cn/news/detail-720766.html

4. 相關命令

- 實時查看pod創(chuàng)建進度
kubectl get pod -n rook-ceph -w

- 實時查看集群創(chuàng)建進度
kubectl get cephcluster -n rook-ceph rook-ceph -w

- 詳細描述
kubectl describe cephcluster -n rook-ceph rook-ceph

5. 參考

  • Rook - Rook Ceph Documentation

到了這里,關于K8S集群實踐之九: Ceph的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • K8S初級入門系列之九-共享存儲

    K8S初級入門系列之九-共享存儲

    ? ? ?Pod里面的容器都有自己獨立的文件系統(tǒng),來自容器鏡像,用于保存容器運行的數(shù)據(jù),但容器的文件存儲有兩個弊端,一個是無法持久化,其生命周期與容器一致,一旦容器銷毀,相關的數(shù)據(jù)也就隨之一起銷毀;二是無法共享,Pod里多個容器之間無法共享數(shù)據(jù),會導致無

    2024年02月03日
    瀏覽(24)
  • k8s實踐之mysql集群搭建(十五)

    k8s實踐之mysql集群搭建(十五)

    先下載?k8s實踐之mysql集群搭建資料 主從模式簡介: 當master主服務器上的數(shù)據(jù)發(fā)生改變時,則將其改變寫入二進制(binlog)事件日志文件中; slave從服務器會在一定時間間隔內(nèi)對master主服務器上的二進制日志進行探測,探測其是否發(fā)生過改變(通過二進制文件的大小是否不同

    2024年02月14日
    瀏覽(25)
  • K8s集群nginx-ingress監(jiān)控告警最佳實踐

    本文分享自華為云社區(qū)《K8s集群nginx-ingress監(jiān)控告警最佳實踐》,作者:可以交個朋友。 nginx-ingress作為K8s集群中的關鍵組成部分。主要負責k8s集群中的服務發(fā)布,請求轉發(fā)等功能。如果在訪問服務過程中出現(xiàn)404和502等情況,需要引起注意。 可以通過CCE集群插件kube-prometheus-s

    2024年04月22日
    瀏覽(31)
  • 香橙派4和樹莓派4B構建K8S集群實踐之八: TiDB

    香橙派4和樹莓派4B構建K8S集群實踐之八: TiDB

    目錄 1. 說明 2.?準備工作 3. 安裝 3.1 參考Tidb官方 v1.5安裝說明? 3.2 準備存儲類 3.3 創(chuàng)建crd 3.4 執(zhí)行operator 3.5 創(chuàng)建cluster/dashboard/monitor容器組 3.6 設置訪問入口(Ingress Port) 4. 裝好后的容器狀況 5. 遇到的問題 6. 參考 建立TiDB集群,實現(xiàn)一個基于k8s的云原生分布式數(shù)據(jù)庫方案 應用i

    2024年02月13日
    瀏覽(61)
  • 香橙派4和樹莓派4B構建K8S集群實踐之七: Jenkins

    香橙派4和樹莓派4B構建K8S集群實踐之七: Jenkins

    目錄 1. 說明 2. 步驟 2.1 準備工作 2.2 安裝 2.2.1 用jenkins原站for k8s的安裝倉方法安裝 2.2.2 Helm 安裝 3. 相關命令 4. 遇到的問題 5. 參考 在k8s上部署jenkins,并用 jenkins.k8s-t2.com訪問 在namespace為devops下安裝在指定節(jié)點k8s-master-1,有指定持久化的PV/PVC/SC CI/DI 實踐 設置代理,不然去git拿

    2024年02月12日
    瀏覽(18)
  • 香橙派4和樹莓派4B構建K8S集群實踐之四:BuildKit與LNMP

    香橙派4和樹莓派4B構建K8S集群實踐之四:BuildKit與LNMP

    目錄 1. 說明 2. 開始前的準備工作 2.1 docker 驗證用戶信息設置 ?2.2 安裝BuildKit 3. 安裝步驟 3.1 申請一個pvc存儲區(qū) (wwwroot-pvc.yaml) 3.2 Nginx 3.3 PHP-FPM 3.3.1 構建并推送鏡像 3.3.2 定義入口(ingress 方式) 3.4?Maria Galera 3.4.1 安裝相關命令 3.4.2 特別注意 3.4.3 外部連接數(shù)據(jù)庫 3.3.4 內(nèi)部跨域訪

    2024年02月04日
    瀏覽(13)
  • 云原生之容器編排實踐-在K8S集群中使用Registry2搭建私有鏡像倉庫

    云原生之容器編排實踐-在K8S集群中使用Registry2搭建私有鏡像倉庫

    基于前面搭建的3節(jié)點 Kubernetes 集群,今天我們使用 Registry2 搭建私有鏡像倉庫,這在鏡像安全性以及離線環(huán)境下運維等方面具有重要意義。 Note: 由于是測試環(huán)境,以下創(chuàng)建了一個 local-storage 的 StorageClass ,并使用本地磁盤的方式創(chuàng)建使用 PV ,實際建議使用 NFS 。 共用到了三臺

    2024年02月19日
    瀏覽(22)
  • k8s使用ceph存儲

    k8s使用ceph存儲

    初始化操作 ceph創(chuàng)建rbd存儲池 ceph添加授權,需要創(chuàng)建兩個用戶,一個掛載rbd時使用,另一個掛載cephfs時使用 k8s集群中所有節(jié)點安裝ceph-common 將ceph配置文件和keyring文件拷貝至所有k8s集群中節(jié)點 k8s使用ceph rbd k8s集群中的pod使用rbd時可以直接通過pod的volume進行掛載,也可以以p

    2024年02月16日
    瀏覽(14)
  • K8s使用Ceph作為后端存儲

    K8s使用Ceph作為后端存儲

    Ceph概述 部署Ceph集群 Ceph存儲使用 Pod使用Ceph持久化數(shù)據(jù) Ceph監(jiān)控 Rook部署Ceph Ceph介紹 Ceph架構 Ceph核心概念 Ceph是一個開源的分布式存儲系統(tǒng),具有高擴展性、高性能、高可靠性等特點,提 供良好的性能、可靠性和可擴展性。支持對象存儲、塊存儲和文件系統(tǒng)。 是目前為云平臺

    2024年02月15日
    瀏覽(20)
  • K8S-1.23.17+Ceph+KubeSphere 一主二從部署攻略

    K8S-1.23.17+Ceph+KubeSphere 一主二從部署攻略

    ? 主機最低需求: ? 4 核 CPU,4 GB 內(nèi)存,硬盤:20 GBx2 (需保留一個未分區(qū)的磁盤) 從機最低需求: ? 4 核 CPU,8 GB 內(nèi)存,硬盤:20 GBx2 (需保留一個未分區(qū)的磁盤) ? Ubuntu : 22.04 K ubesphere: 3.4.1 Docker : 20.10.24 K 8s : 1.23.17 Rook: 1.13.6 ? 注釋掉swap行并保存 出現(xiàn)如下信息表示初始

    2024年03月15日
    瀏覽(49)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包