国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

mdadm(管理磁盤陣列組)命令詳解

這篇具有很好參考價(jià)值的文章主要介紹了mdadm(管理磁盤陣列組)命令詳解。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

mdadm命令來自于英文詞組“multiple devices admin”的縮寫,其功能是用于管理RAID磁盤陣列組。作為Linux系統(tǒng)下軟RAID設(shè)備的管理神器,mdadm命令可以進(jìn)行創(chuàng)建、調(diào)整、監(jiān)控、刪除等全套管理操作。

語法格式:mdadm [參數(shù)] 設(shè)備名

參數(shù)大全

-D 顯示RAID設(shè)備的詳細(xì)信息

-A 加入一個(gè)以前定義的RAID

-l 指定RAID的級別

-n 指定RAID中活動設(shè)備的數(shù)目

-f 把RAID成員列為有問題,以便移除該成員

-r 把RAID成員移出RAID設(shè)備

-a 向RAID設(shè)備中添加一個(gè)成員
-S 停用RAID設(shè)備,釋放所有資源

-x 指定初始RAID設(shè)備的備用成員的數(shù)量

?

先創(chuàng)四個(gè)分區(qū)

mdadm命令,linux

[root@compute ~]# mdadm -C /dev/md7 -n 3  -l 5 -x 1 /dev/sde{1,2,3,4}
mdadm: /dev/sde1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Tue Mar  7 17:24:53 2023
mdadm: /dev/sde2 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Tue Mar  7 17:24:53 2023
mdadm: /dev/sde3 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Tue Mar  7 17:24:53 2023
mdadm: /dev/sde4 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Tue Mar  7 17:24:53 2023
mdadm: largest drive (/dev/sde4) exceeds size (2094080K) by more than 1%
Continue creating array? y
mdadm: Fail create md7 when using /sys/module/md_mod/parameters/new_array
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md7 started.
sde                                               8:64   0   10G  0 disk  
├─sde1                                            8:65   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
├─sde2                                            8:66   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
├─sde3                                            8:67   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
└─sde4                                            8:68   0    4G  0 part  
  └─md7                                           9:7    0    4G  0 raid5 
[root@compute ~]# mdadm -D /dev/md7 
/dev/md7:
           Version : 1.2
     Creation Time : Tue Mar  7 17:29:25 2023
        Raid Level : raid5
        Array Size : 4188160 (3.99 GiB 4.29 GB)
     Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Tue Mar  7 17:29:36 2023
             State : clean 
    Active Devices : 3
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : compute:7  (local to host compute)
              UUID : dcdfacfb:9b2f17cd:ce176b58:9e7c56a4
            Events : 18

    Number   Major   Minor   RaidDevice State
       0       8       65        0      active sync   /dev/sde1
       1       8       66        1      active sync   /dev/sde2
       4       8       67        2      active sync   /dev/sde3

       3       8       68        -      spare   /dev/sde4
mdadm -S /dev/md7  //一次性停止有個(gè)硬盤的陣列組

[root@compute ~]# mdadm -C /dev/md7 -x 1 -n 3 -l 5 /dev/sdd{1..4}
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Tue Mar  7 17:25:51 2023
mdadm: /dev/sdd2 appears to be part of a raid array:
level=raid5 devices=3 ctime=Tue Mar  7 17:25:51 2023
mdadm: largest drive (/dev/sdd4) exceeds size (2094080K) by more than 1%
Continue creating array? yes
mdadm: Fail create md7 when using /sys/module/md_mod/parameters/new_array
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md7 started.

└─cinder--volumes-cinder--volumes--pool       253:5    0   69G  0 lvm   
sdd                                               8:48   0   10G  0 disk  
├─sdd1                                            8:49   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
├─sdd2                                            8:50   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
├─sdd3                                            8:51   0    2G  0 part  
│ └─md7                                           9:7    0    4G  0 raid5 
└─sdd4                                            8:52   0    4G  0 part  
└─md7                                           9:7    0    4G  0 raid5 
sde                                               8:64   0   10G  0 disk  
[root@compute ~]# mdadm -D /dev/md7 
/dev/md7:
Version : 1.2
Creation Time : Wed Mar  8 14:52:00 2023
Raid Level : raid5
Array Size : 4188160 (3.99 GiB 4.29 GB)
Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Wed Mar  8 14:52:11 2023
State : clean 
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1

Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : resync

Name : compute:7  (local to host compute)
UUID : 700d9a77:0babc26d:3b5a6768:223d47a8
Events : 18

Number   Major   Minor   RaidDevice State
0       8       49        0      active sync   /dev/sdd1
1       8       50        1      active sync   /dev/sdd2
4       8       51        2      active sync   /dev/sdd3

3       8       52        -      spare   /dev/sdd4
[root@compute ~]# mdadm /dev/md7  -f /dev/sdd1
mdadm: set /dev/sdd1 faulty in /dev/md7
[root@compute ~]# mdadm -D /dev/md7           
/dev/md7:
Version : 1.2
Creation Time : Wed Mar  8 14:52:00 2023
Raid Level : raid5
Array Size : 4188160 (3.99 GiB 4.29 GB)
Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Wed Mar  8 14:59:00 2023
State : clean, degraded, recovering 
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1

Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : resync

Rebuild Status : 66% complete

Name : compute:7  (local to host compute)
UUID : 700d9a77:0babc26d:3b5a6768:223d47a8
Events : 30

Number   Major   Minor   RaidDevice State
3       8       52        0      spare rebuilding   /dev/sdd4
1       8       50        1      active sync   /dev/sdd2
4       8       51        2      active sync   /dev/sdd3

0       8       49        -      faulty   /dev/sdd1
[root@compute ~]# mdadm /dev/md7  -r /dev/sdd1
mdadm: hot removed /dev/sdd1 from /dev/md7
[root@compute ~]# mdadm -D /dev/md7           
/dev/md7:
Version : 1.2
Creation Time : Wed Mar  8 14:52:00 2023
Raid Level : raid5
Array Size : 4188160 (3.99 GiB 4.29 GB)
Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent

Update Time : Wed Mar  8 15:00:22 2023
State : clean 
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : resync

Name : compute:7  (local to host compute)
UUID : 700d9a77:0babc26d:3b5a6768:223d47a8
Events : 38

Number   Major   Minor   RaidDevice State
3       8       52        0      active sync   /dev/sdd4
1       8       50        1      active sync   /dev/sdd2
4       8       51        2      active sync   /dev/sdd3
[root@compute ~]# mdadm /dev/md7  -a /dev/sdd1
mdadm: added /dev/sdd1
[root@compute ~]# mdadm -D /dev/md7           
/dev/md7:
Version : 1.2
Creation Time : Wed Mar  8 14:52:00 2023
Raid Level : raid5
Array Size : 4188160 (3.99 GiB 4.29 GB)
Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Wed Mar  8 15:01:29 2023
State : clean 
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1

Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : resync

Name : compute:7  (local to host compute)
UUID : 700d9a77:0babc26d:3b5a6768:223d47a8
Events : 39

Number   Major   Minor   RaidDevice State
3       8       52        0      active sync   /dev/sdd4
1       8       50        1      active sync   /dev/sdd2
4       8       51        2      active sync   /dev/sdd3

5       8       49        -      spare   /dev/sdd1

?文章來源地址http://www.zghlxwxcb.cn/news/detail-619971.html

到了這里,關(guān)于mdadm(管理磁盤陣列組)命令詳解的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • lvm + raid(邏輯磁盤+陣列)創(chuàng)建刪除恢復(fù) for linux

    lvm + raid(邏輯磁盤+陣列)創(chuàng)建刪除恢復(fù) for linux

    本教程適用于linux lvm為邏輯磁盤,raid為陣列,兩種技術(shù)可以單獨(dú)使用也可以搭配使用 2023.9.3更新 前三節(jié)是操作命令和基礎(chǔ)知識,后面是實(shí)操。 硬盤分區(qū)相關(guān)操作在后面用的到,可以先略過,有需要了再回來查 1.查看所有存儲硬件詳細(xì)信息 2.查看文件系統(tǒng) 3.查看分區(qū)對應(yīng)硬盤

    2024年02月09日
    瀏覽(26)
  • 視頻集中存儲/云存儲/磁盤陣列/視頻監(jiān)控管理平臺EasyCVR接入??礢DK后視頻播放崩潰的問題排查

    視頻集中存儲/云存儲/磁盤陣列/視頻監(jiān)控管理平臺EasyCVR接入海康SDK后視頻播放崩潰的問題排查

    視頻集中存儲/云存儲/磁盤陣列/視頻監(jiān)控管理平臺EasyCVR可支持海量視頻的輕量化接入與匯聚管理。在視頻能力上,EasyCVR可實(shí)現(xiàn)視頻直播、云端錄像、檢索與回放、云存儲、告警上報(bào)、語音對講、電子地圖、H.265視頻自動轉(zhuǎn)碼、服務(wù)器集群、AI智能分析接入以及平臺級聯(lián)等。安

    2024年02月09日
    瀏覽(23)
  • RAID磁盤陣列

    RAID磁盤陣列

    目錄 一、RAID的介紹 1、RAID存儲方式 2、RAID邏輯卷 二、RAID的分類 1、RAID 0 2、RAID 1 3、RAID 2 4、RAID 3 5、RAID 4 6、RAID 5 7、RAID 6 8、RAID 10 三、RAID比較 四、部署磁盤陣列 五、損壞磁盤陣列及修復(fù) 取消掛載 擴(kuò)展 六、磁盤陣列+備份盤 ? RAID 簡稱廉價(jià)磁盤冗余陣列 (Redundant Arrays of

    2024年02月04日
    瀏覽(31)
  • 磁盤陣列Raid探討

    磁盤陣列Raid探討

    最近公司買服務(wù)器,順便了解一下服務(wù)器配置方面的問題 以下討論的都是入門級服務(wù)器配置,全部是主觀意見,沒有任何科學(xué)依據(jù),歡迎大家討論 先說結(jié)論: 做Raid10 在大容量硬盤時(shí)代(=1T), 由于Raid5在損壞一塊硬盤的情況下降級運(yùn)行時(shí)的性能很差而且恢復(fù)時(shí)間特別長,所以統(tǒng)

    2024年02月08日
    瀏覽(18)
  • RAID(磁盤陣列)

    RAID(磁盤陣列)

    RAID是英文(Redundant Array of Independent Disks)的縮寫,翻譯成中文是“獨(dú)立磁盤冗余陣列”, 簡稱磁盤陣列(Disk Array)。 簡單的說,RAID是一種把多塊獨(dú)立的硬盤(物理硬盤)按不同的方式組合起來形成一個(gè)硬盤組(邏輯硬盤),從而提供比單個(gè)硬盤更高的存儲性能和提供數(shù)據(jù)備份

    2023年04月08日
    瀏覽(22)
  • 5種raid冗余磁盤陣列

    5種raid冗余磁盤陣列

    RAID就是冗余磁盤陣列,通常稱作「磁盤陣列」的RAID (Redundant Array of Independent Disks)功能,多半是應(yīng)用在NAS這類肩負(fù)資料儲存的設(shè)備上,它能依據(jù)NAS里硬盤數(shù)量、容量的不同,提供不同的RAID模式讓使用者選用后,再依據(jù)所選用的RAID模式,把一顆以上的硬盤合并成一個(gè)可用的單一

    2024年02月11日
    瀏覽(27)
  • RAID磁盤陣列(看咱這篇就夠了?。? decoding=

    RAID磁盤陣列(看咱這篇就夠了!)

    目錄 一、RAID簡介 二、RAID的級別詳列 三、總結(jié) ? ? ? ?寫這篇博客的原因是小編在工作中遇到的這個(gè)不熟悉的硬件知識,然后工作之余就立馬搜集了資料進(jìn)行學(xué)習(xí)。了解了RAID的作用和區(qū)別以及如何進(jìn)行掛載之類的。本篇以及之后的一篇博客適合新手小白來初識RAID! ????

    2024年02月04日
    瀏覽(21)
  • 【服務(wù)器數(shù)據(jù)恢復(fù)】Raid磁盤陣列常見故障類型&原因分析

    【服務(wù)器數(shù)據(jù)恢復(fù)】Raid磁盤陣列常見故障類型&原因分析

    由于raid的特點(diǎn)和優(yōu)勢,磁盤陣列技術(shù)被廣泛應(yīng)用于服務(wù)器和存儲等商用領(lǐng)域。由于用戶基數(shù)大,出現(xiàn)故障的情況也不少。通過這篇文章介紹一下常見的raid磁盤陣列數(shù)故障類型和原因。 ? 故障類型一、磁盤陣列處于降級狀態(tài)時(shí)未及時(shí)rebuild。 RAID磁盤陣列的數(shù)據(jù)安全冗余是利用

    2023年04月25日
    瀏覽(21)
  • R730服務(wù)器熱插拔換磁盤(raid陣列)

    R730服務(wù)器熱插拔換磁盤(raid陣列)

    r730服務(wù)器發(fā)現(xiàn)磁盤閃橙等,說明磁盤報(bào)警了,這時(shí)候我們就要換磁盤了。 由于本服務(wù)器磁盤是raid5的陣列磁盤,所以要采用熱插拔的方式換磁盤。 這邊要注意的是,不能關(guān)機(jī)的時(shí)候,直接來換磁盤。 因?yàn)殛P(guān)機(jī)換磁盤,那個(gè)更換的磁盤不能正常在線。 所以我們必須開機(jī)換磁盤

    2024年02月08日
    瀏覽(20)
  • IBM服務(wù)器RAID5磁盤陣列出現(xiàn)故障的數(shù)據(jù)恢復(fù)案例

    IBM服務(wù)器RAID5磁盤陣列出現(xiàn)故障的數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境: IBM某型號服務(wù)器,服務(wù)器中5塊SAS磁盤組建了一組RAID5磁盤陣列。劃分了一個(gè)LUN以及3個(gè)分區(qū):第一個(gè)分區(qū)存放windows server系統(tǒng),第二個(gè)分區(qū)存放SQL Server數(shù)據(jù)庫,第三個(gè)分區(qū)存放備份文件。 ? 服務(wù)器故障: 服務(wù)器在運(yùn)行過程中崩潰,raid陣列不可用。北亞

    2024年02月12日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包