国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Ceph 塊存儲系統(tǒng) RBD 接口

這篇具有很好參考價值的文章主要介紹了Ceph 塊存儲系統(tǒng) RBD 接口。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

-創(chuàng)建 Ceph 塊存儲系統(tǒng) RBD 接口-

1、創(chuàng)建一個名為 rbd-demo 的專門用于 RBD 的存儲池

ceph osd pool create rbd-demo 64 64

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

2、將存儲池轉(zhuǎn)換為 RBD 模式

ceph osd pool application enable rbd-demo rbd

3、初始化存儲池

rbd pool init -p rbd-demo			# -p 等同于 --pool

4、創(chuàng)建鏡像

rbd create -p rbd-demo --image rbd-demo1.img --size 10G
可簡寫為:
rbd create rbd-demo/rbd-demo2.img --size 10G

5、鏡像管理

//查看存儲池下存在哪些鏡像
rbd ls -l -p rbd-demo

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

//查看鏡像的詳細(xì)信息
rbd info -p rbd-demo --image rbd-demo1.img
rbd image 'rbd-demo.img':
	size 10 GiB in 2560 objects							#鏡像的大小與被分割成的條帶數(shù)
	order 22 (4 MiB objects)							#條帶的編號,有效范圍是12到25,對應(yīng)4K到32M,而22代表2的22次方,這樣剛好是4M
	snapshot_count: 0
	id: 5fc98fe1f304									#鏡像的ID標(biāo)識
	block_name_prefix: rbd_data.5fc98fe1f304			#名稱前綴
	format: 2											#使用的鏡像格式,默認(rèn)為2
	features: layering, exclusive-lock, object-map, fast-diff, deep-flatten			#當(dāng)前鏡像的功能特性
	op_features: 																	#可選的功能特性
	flags: 

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

//修改鏡像大小
rbd resize -p rbd-demo --image rbd-demo1.img --size 20G

rbd info -p rbd-demo --image rbd-demo1.img

#使用 resize 調(diào)整鏡像大小,一般建議只增不減,如果是減少的話需要加選項(xiàng) --allow-shrink
rbd resize -p rbd-demo --image rbd-demo1.img --size 5G --allow-shrink

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript
Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

//刪除鏡像
#直接刪除鏡像
rbd rm -p rbd-demo --image rbd-demo2.img
或
rbd remove rbd-demo/rbd-demo2.img

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

#推薦使用 trash 命令,這個命令刪除是將鏡像移動至回收站,如果想找回還可以恢復(fù)
rbd trash move rbd-demo/rbd-demo1.img

rbd ls -l -p rbd-demo

rbd trash list -p rbd-demo
5fc98fe1f304 rbd-demo1.img

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript
Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

#還原鏡像
rbd trash restore rbd-demo/5fc98fe1f304

rbd ls -l -p rbd-demo

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

6、Linux客戶端使用

客戶端使用 RBD 有兩種方式:
●通過內(nèi)核模塊KRBD將鏡像映射為系統(tǒng)本地塊設(shè)備,通常設(shè)置文件一般為:/dev/rbd*
●另一種是通過librbd接口,通常KVM虛擬機(jī)使用這種接口。

本例主要是使用Linux客戶端掛載RBD鏡像為本地磁盤使用。開始之前需要在所需要客戶端節(jié)點(diǎn)上面安裝ceph-common軟件包,因?yàn)榭蛻舳诵枰{(diào)用rbd命令將RBD鏡像映射到本地當(dāng)作一塊普通硬盤使用。并還需要把ceph.conf配置文件和授權(quán)keyring文件復(fù)制到對應(yīng)的節(jié)點(diǎn)。
//在管理節(jié)點(diǎn)創(chuàng)建并授權(quán)一個用戶可訪問指定的 RBD 存儲池
#示例,指定用戶標(biāo)識為client.osd-mount,對另對OSD有所有的權(quán)限,對Mon有只讀的權(quán)限
ceph auth get-or-create client.osd-mount osd "allow * pool=rbd-demo" mon "allow r" > /etc/ceph/ceph.client.osd-mount.keyring
//修改RBD鏡像特性,CentOS7默認(rèn)情況下只支持layering和striping特性,需要將其它的特性關(guān)閉
rbd feature disable rbd-demo/rbd-demo1.img object-map,fast-diff,deep-flatten
//將用戶的keyring文件和ceph.conf文件發(fā)送到客戶端的/etc/ceph目錄下
cd /etc/ceph
scp ceph.client.osd-mount.keyring ceph.conf root@client:/etc/ceph

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

//linux客戶端操作
#安裝 ceph-common 軟件包
yum install -y ceph-common

#執(zhí)行客戶端映射
cd /etc/ceph
rbd map rbd-demo/rbd-demo1.img --keyring /etc/ceph/ceph.client.osd-mount.keyring --user osd-mount

#查看映射
rbd showmapped
rbd device list

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

#斷開映射
rbd unmap rbd-demo/rbd-demo1.img

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

#格式化并掛載
mkfs.xfs /dev/rbd0

mkdir -p /data/bb
mount /dev/rbd0 /data/bb

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

#在線擴(kuò)容
在管理節(jié)點(diǎn)調(diào)整鏡像的大小
rbd resize rbd-demo/rbd-demo1.img --size 30G

在客戶端刷新設(shè)備文件
xfs_growfs /dev/rbd0		#刷新xfs文件系統(tǒng)容量
resize2fs /dev/rbd0			#刷新ext4類型文件系統(tǒng)容量

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript
Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

7、快照管理
對 rbd 鏡像進(jìn)行快照,可以保留鏡像的狀態(tài)歷史,另外還可以利用快照的分層技術(shù),通過將快照克隆為新的鏡像使用。

//在客戶端寫入文件
echo 1111 > /data/bb/11.txt
echo 2222 > /data/bb/22.txt
echo 3333 > /data/bb/33.txt
//在管理節(jié)點(diǎn)對鏡像創(chuàng)建快照
rbd snap create --pool rbd-demo --image rbd-demo1.img --snap demo1_snap1

可簡寫為:
rbd snap create rbd-demo/rbd-demo1.img@demo1_snap1
//列出指定鏡像所有快照
rbd snap list rbd-demo/rbd-demo1.img

#用json格式輸出:
rbd snap list rbd-demo/rbd-demo1.img --format json --pretty-format

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript
Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

//回滾鏡像到指定
在回滾快照之前,需要將鏡像取消鏡像的映射,然后再回滾。

#在客戶端
rm -rf /data/bb/*
umount /data/bb
rbd unmap rbd-demo/rbd-demo1.img

#在管理節(jié)點(diǎn)操作,回滾
rbd snap rollback rbd-demo/rbd-demo1.img@demo1_snap1

#在客戶端重新映射并掛載
rbd map rbd-demo/rbd-demo1.img --keyring /etc/ceph/ceph.client.osd-mount.keyring --user osd-mount
mount /dev/rbd0 /data/bb
ls /data/bb				#發(fā)現(xiàn)數(shù)據(jù)還原回來了

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript
Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript
Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

//限制鏡像可創(chuàng)建快照數(shù)
rbd snap limit set <RDB存儲池名>/<鏡像名> --limit 3

#解除限制:
rbd snap limit clear <RDB存儲池名>/<鏡像名>
//刪除快照
#刪除指定快照:
rbd snap rm <RDB存儲池名>/<鏡像名>@<快照名>

#刪除所有快照:
rbd snap purge <RDB存儲池名>/<鏡像名>
//快照分層
快照分層支持用快照的克隆生成新鏡像,這種鏡像與直接創(chuàng)建的鏡像幾乎完全一樣,支持鏡像的所有操作。唯一不同的是克隆鏡像引用了一個只讀的上游快照,而且此快照必須要設(shè)置保護(hù)模式。

#快照克隆
1)將上游快照設(shè)置為保護(hù)模式:
rbd snap create rbd-demo/rbd-demo1.img@demo1_snap666

rbd snap protect rbd-demo/rbd-demo1.img@demo1_snap666

2)克隆快照為新的鏡像
rbd clone rbd-demo/rbd-demo1.img@demo1_snap666 --dest rbd-demo/rbd-demo666.img

rbd ls -p rbd-demo

3)命令查看克隆完成后快照的子鏡像
rbd children rbd-demo/rbd-demo1.img@demo1_snap666

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript
Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript
Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

//快照展平
通常情況下通過快照克隆而得到的鏡像會保留對父快照的引用,這時候不可以刪除該父快照,否則會有影響。
rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap666
#報(bào)錯 snapshot 'demo1_snap666' is protected from removal.

如果要刪除快照但想保留其子鏡像,必須先展平其子鏡像,展平的時間取決于鏡像的大小
1) 展平子鏡像
rbd flatten rbd-demo/rbd-demo666.img

2)取消快照保護(hù)
rbd snap unprotect rbd-demo/rbd-demo1.img@demo1_snap666

3)刪除快照
rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap666

rbd ls -l -p rbd-demo			#在刪除掉快照后,查看子鏡像依然存在

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript
Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

8、鏡像的導(dǎo)出導(dǎo)入

//導(dǎo)出鏡像
rbd export rbd-demo/rbd-demo1.img  /opt/rbd-demo1.img

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

//導(dǎo)入鏡像
#卸載客戶端掛載,并取消映射
umount /data/bb
rbd unmap rbd-demo/rbd-demo1.img

#清除鏡像下的所有快照,并刪除鏡像
rbd snap purge rbd-demo/rbd-demo1.img
rbd rm rbd-demo/rbd-demo1.img

rbd ls -l -p rbd-demo

#導(dǎo)入鏡像
rbd import /opt/rbd-demo1.img  rbd-demo/rbd-demo1.img

rbd ls -l -p rbd-demo

Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript
Ceph 塊存儲系統(tǒng) RBD 接口,ceph,chrome,javascript

- OSD 故障模擬與恢復(fù) -

1、模擬 OSD 故障
如果 ceph 集群有上千個 osd,每天壞 2~3 個太正常了,我們可以模擬 down 掉一個 osd

#如果 osd 守護(hù)進(jìn)程正常運(yùn)行,down 的 osd 會很快自恢復(fù)正常,所以需要先關(guān)閉守護(hù)進(jìn)程
ssh root@node01 systemctl stop ceph-osd@0

#down 掉 osd
ceph osd down 0

ceph osd tree

2、將壞掉的 osd 踢出集群
//方法一:

#將 osd.0 移出集群,集群會開始自動同步數(shù)據(jù)
ceph osd out osd.0
#將 osd.0 移除 crushmap
ceph osd crush remove osd.0
#刪除守護(hù)進(jìn)程對應(yīng)的賬戶信息
ceph auth rm osd.0

ceph auth list
#刪掉 osd.0
ceph osd rm osd.0

ceph osd stat
ceph -s

//方法二:

ceph osd out osd.0

#使用綜合步驟,刪除配置文件中針對壞掉的 osd 的配置
ceph osd purge osd.0 --yes-i-really-mean-it

3、把原來壞掉的 osd 修復(fù)后重新加入集群文章來源地址http://www.zghlxwxcb.cn/news/detail-578619.html

#在 osd 節(jié)點(diǎn)創(chuàng)建 osd,無需指定名,會按序號自動生成
cd /etc/ceph

ceph osd create
#創(chuàng)建賬戶
ceph-authtool --create-keyring /etc/ceph/ceph.osd.0.keyring --gen-key -n osd.0 --cap mon 'allow profile osd' --cap mgr 'allow profile osd' --cap osd 'allow *'
#導(dǎo)入新的賬戶秘鑰
ceph auth import -i /etc/ceph/ceph.osd.0.keyring

ceph auth list
#更新對應(yīng)的 osd 文件夾中的密鑰環(huán)文件
ceph auth get-or-create osd.0 -o /var/lib/ceph/osd/ceph-0/keyring
#加入 crushmap
ceph osd crush add osd.0 1.000 host=node01		#1.000 代表權(quán)重
#加入集群
ceph osd in osd.0

ceph osd tree
#重啟 osd 守護(hù)進(jìn)程
systemctl restart ceph-osd@0

ceph osd tree		#稍等片刻后 osd 狀態(tài)為 up	
//如果重啟失敗
報(bào)錯:
Job for ceph-osd@0.service failed because start of the service was attempted too often. See "systemctl  status ceph-osd@0.service" and "journalctl -xe" for details.
To force a start use "systemctl reset-failed ceph-osd@0.service" followed by "systemctl start ceph-osd@0.service" again.

#運(yùn)行
systemctl reset-failed ceph-osd@0.service && systemctl restart ceph-osd@0.service

到了這里,關(guān)于Ceph 塊存儲系統(tǒng) RBD 接口的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【Ceph集群應(yīng)用】Ceph對象存儲系統(tǒng)之RGW接口詳解

    【Ceph集群應(yīng)用】Ceph對象存儲系統(tǒng)之RGW接口詳解

    接上文基于ceph-deploy部署Ceph集群詳解 (1)對象存儲概念 對象存儲(object storage)是非結(jié)構(gòu)數(shù)據(jù)的存儲方法,對象存儲中每一條數(shù)據(jù)都作為單獨(dú)的對象存儲,擁有唯一的地址來識別數(shù)據(jù)對象,通常用于云計(jì)算環(huán)境中。 不同于其他數(shù)據(jù)存儲方法, 基于對象的存儲不使用目錄樹

    2024年02月17日
    瀏覽(23)
  • Ceph分布式文件系統(tǒng)——文件系統(tǒng)MDS接口 塊存儲RDB接口 對象存儲RGW接口

    Ceph分布式文件系統(tǒng)——文件系統(tǒng)MDS接口 塊存儲RDB接口 對象存儲RGW接口

    服務(wù)端操作 1)在管理節(jié)點(diǎn)創(chuàng)建 mds 服務(wù) 2)查看各個節(jié)點(diǎn)的 mds 服務(wù) 3)創(chuàng)建存儲池,啟用 ceph 文件系統(tǒng) ceph 文件系統(tǒng)至少需要兩個 rados 池,一個用于存儲數(shù)據(jù),一個用于存儲元數(shù)據(jù)。此時數(shù)據(jù)池就類似于文件系統(tǒng)的共享目錄。 創(chuàng)建 cephfs,命令格式:ceph fs new FS_NAME CEPHFS_ME

    2024年02月16日
    瀏覽(34)
  • ceph--RBD的使用

    ceph--RBD的使用

    Ceph 可以同時提供對象存儲 RADOSGW、塊存儲 RBD、文件系統(tǒng)存儲 Ceph FS,RBD 即 RADOS Block Device 的簡稱,RBD 塊存儲是常用的存儲類型之一,RBD 塊設(shè)備類似磁盤 可以被掛載,RBD 塊設(shè)備具有快照、多副本、克隆和一致性等特性,數(shù)據(jù)以條帶化的方式 存儲在 Ceph 集群的多個 OSD 中。 客戶

    2024年02月15日
    瀏覽(14)
  • ceph集群中RBD的性能測試、性能調(diào)優(yōu)

    ceph集群中RBD的性能測試、性能調(diào)優(yōu)

    參考:https://blog.csdn.net/Micha_Lu/article/details/126490260 rados bench為ceph自帶的基準(zhǔn)測試工具,rados bench用于測試 rados存儲池 底層性能,該工具可以測試寫、順序讀、隨機(jī)讀三種類型. 寫入速率測試: 順序讀速率測試: 隨機(jī)讀速率測試: rbd bench-write為ceph自帶的基準(zhǔn)性能測試工具,

    2024年02月14日
    瀏覽(17)
  • 【分布式技術(shù)】分布式存儲ceph之RGW接口

    【分布式技術(shù)】分布式存儲ceph之RGW接口

    目錄 1、對象存儲概念 ?2、創(chuàng)建 RGW 接口 //在管理節(jié)點(diǎn)創(chuàng)建一個 RGW 守護(hù)進(jìn)程 #創(chuàng)建成功后默認(rèn)情況下會自動創(chuàng)建一系列用于 RGW 的存儲池? #默認(rèn)情況下 RGW 監(jiān)聽 7480 號端口? //開啟 http+https ,更改監(jiān)聽端口 #更改監(jiān)聽端口 ?? ? ? ? ? //創(chuàng)建 RadosGW 賬戶 客戶端測試 OSD 故障模擬

    2024年01月19日
    瀏覽(25)
  • 使用Ceph對象存儲的Amazon S3接口(基于nautilus版本)

    Ceph是一個分布式存儲系統(tǒng),提供了多種數(shù)據(jù)存儲方式,包括對象存儲。Amazon S3是一個流行的對象存儲服務(wù),Ceph提供了Amazon S3接口的兼容性,使得Ceph可以作為一個云存儲解決方案。 分片上傳接口是Amazon S3接口中的一個重要功能,它允許將大文件拆分成小的分片上傳,降低了上

    2024年02月06日
    瀏覽(27)
  • Ceph分布式存儲系統(tǒng)

    Ceph分布式存儲系統(tǒng)

    Ceph :ceph被稱為面向未來的存儲還是一個分布式的存儲系統(tǒng),非常靈活,如果需要擴(kuò)容,只要向ceph集中增加服務(wù)器即可。ceph存儲數(shù)據(jù)時采用多副本的方式進(jìn)行存儲,生產(chǎn)環(huán)境下,一個文件至少要存三份,ceph默認(rèn)也是三副本存儲。 可以實(shí)現(xiàn)的 存儲方式 : 塊存儲:提供像普通

    2024年04月15日
    瀏覽(34)
  • 分布式運(yùn)用——存儲系統(tǒng)Ceph

    分布式運(yùn)用——存儲系統(tǒng)Ceph

    Ceph是一個開源的分布式存儲解決方案,旨在提供可擴(kuò)展性、高性能和強(qiáng)大的數(shù)據(jù)可靠性。它采用了一種分布式對象存儲架構(gòu),能夠同時提供塊存儲和文件存儲的功能。本篇博客將深入探索Ceph的原理、特性和應(yīng)用場景,幫助讀者更好地理解和使用這一強(qiáng)大的存儲解決方案。

    2024年02月17日
    瀏覽(25)
  • 【Linux】分布式存儲系統(tǒng) Ceph

    【Linux】分布式存儲系統(tǒng) Ceph

    提示:文章寫完后,目錄可以自動生成,如何生成可參考右邊的幫助文檔 Ceph使用C++語言開發(fā),是一個開放、自我修復(fù)和自我管理的開源分布式存儲系統(tǒng)。具有高擴(kuò)展性、高性能、高可靠性的優(yōu)點(diǎn)。 Ceph目前已得到眾多云計(jì)算廠商的支持并被廣泛應(yīng)用。RedHat及OpenStack,Kubernet

    2024年02月17日
    瀏覽(23)
  • Ceph分布式存儲系統(tǒng)優(yōu)化分析

    Ceph分布式存儲系統(tǒng)優(yōu)化分析

    ????????Ceph支持多種存儲訪問接口,現(xiàn)有的多種性能測試工具都可用于Ceph的性能測試,如測試塊接口性能的fio,iometer等;測試CephFS接口的filebench,fio等;測試對象接口的cosbench等。Ceph有專用的基準(zhǔn)測試集CBT,其包含radosbench,librbdfio,kvmrbdfio和rbdfio。radosbench基準(zhǔn)測試使用

    2024年02月12日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包