国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【Linux對磁盤進行清理、重建、配置文件系統(tǒng)和掛載,進行系統(tǒng)存儲管理調(diào)整存儲結(jié)構(gòu)】

這篇具有很好參考價值的文章主要介紹了【Linux對磁盤進行清理、重建、配置文件系統(tǒng)和掛載,進行系統(tǒng)存儲管理調(diào)整存儲結(jié)構(gòu)】。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

前言

繼上一篇 【Linux上創(chuàng)建一個LVM卷組,將多個物理卷添加到卷組中使用】
創(chuàng)建一個卷組,并將多個物理卷添加到該卷組中。
在卷組上創(chuàng)建一個邏輯卷,并進行文件系統(tǒng)格式化。
將邏輯卷掛載到指定目錄并自動掛載。
擴展邏輯卷的大小,并調(diào)整文件系統(tǒng)以適應擴容后的存儲空間。

那么這篇是Linux 對磁盤進行清理、重建、配置文件系統(tǒng)和掛載的一系列操作,進行系統(tǒng)存儲管理 調(diào)整存儲結(jié)構(gòu)

一、查看磁盤和分區(qū)列表

使用命令 lsblk 如下:

[root@hnode3 ~]# lsblk 
NAME                 MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                    8:0    0  1.1T  0 disk 
├─sda1                 8:1    0  200M  0 part /boot/efi
├─sda2                 8:2    0  200M  0 part /boot
├─sda3                 8:3    0  1.1T  0 part 
│ ├─vg_srv-lv_root   253:0    0  2.1T  0 lvm  /
│ ├─vg_srv-lv_swap   253:1    0   16G  0 lvm  [SWAP]
│ ├─vg_srv-lv_usr    253:2    0   50G  0 lvm  /usr
│ ├─vg_srv-lv_opt    253:4    0   50G  0 lvm  /opt
│ ├─vg_srv-lv_tmp    253:5    0   50G  0 lvm  /tmp
│ ├─vg_srv-lv_var    253:6    0   50G  0 lvm  /var
│ └─vg_srv-lv_home   253:7    0   50G  0 lvm  /home
└─sda4                 8:4    0    1M  0 part 
sdb                    8:16   0  1.1T  0 disk 
└─sdb1                 8:17   0  1.1T  0 part 
  └─vg_srv-lv_root   253:0    0  2.1T  0 lvm  /
sdc                    8:32   0  1.1T  0 disk 
└─sdc6                 8:38   0  1.1T  0 part 
  └─vg_srv-lv_root   253:0    0  2.1T  0 lvm  /
sdd                    8:48   0  1.1T  0 disk 
└─sdd1                 8:49   0  1.1T  0 part 
  └─vg_data-edp_data 253:3    0  8.8T  0 lvm  /data
sde                    8:64   0  1.1T  0 disk 
└─sde1                 8:65   0  1.1T  0 part 
  └─vg_data-edp_data 253:3    0  8.8T  0 lvm  /data
sdf                    8:80   0  1.1T  0 disk 
└─sdf1                 8:81   0  1.1T  0 part 
  └─vg_data-edp_data 253:3    0  8.8T  0 lvm  /data
sdg                    8:96   0  1.1T  0 disk 
└─sdg1                 8:97   0  1.1T  0 part 
  └─vg_data-edp_data 253:3    0  8.8T  0 lvm  /data
sdh                    8:112  0  1.1T  0 disk 
└─sdh1                 8:113  0  1.1T  0 part 
  └─vg_data-edp_data 253:3    0  8.8T  0 lvm  /data
sdi                    8:128  0  1.1T  0 disk 
└─sdi1                 8:129  0  1.1T  0 part 
  └─vg_data-edp_data 253:3    0  8.8T  0 lvm  /data
sdj                    8:144  0  1.1T  0 disk 
└─sdj1                 8:145  0  1.1T  0 part 
  └─vg_data-edp_data 253:3    0  8.8T  0 lvm  /data
sdk                    8:160  0  1.1T  0 disk 
└─sdk1                 8:161  0  1.1T  0 part 
  └─vg_data-edp_data 253:3    0  8.8T  0 lvm  /data
sdl                    8:176  0  1.1T  0 disk 
└─sdl1                 8:177  0  1.1T  0 part 
  └─vg_data-edp_data 253:3    0  8.8T  0 lvm  /data
sdm                    8:192  0  1.1T  0 disk 
└─sdm1                 8:193  0  1.1T  0 part 
sdn                    8:208  0  1.1T  0 disk 
└─sdn1                 8:209  0  1.1T  0 part 
sdo                    8:224  0  1.1T  0 disk 
└─sdo1                 8:225  0  1.1T  0 part 
sdp                    8:240  0  1.1T  0 disk 
└─sdp1                 8:241  0  1.1T  0 part 
sdq                   65:0    0  1.1T  0 disk 
└─sdq1                65:1    0  1.1T  0 part 
sdr                   65:16   0  1.1T  0 disk 
└─sdr1                65:17   0  1.1T  0 part 
sds                   65:32   0  1.1T  0 disk 
└─sds1                65:33   0  1.1T  0 part 
sdt                   65:48   0  1.1T  0 disk 
└─sdt1                65:49   0  1.1T  0 part 
sdu                   65:64   0  1.1T  0 disk 
└─sdu1                65:65   0  1.1T  0 part 
sdv                   65:80   0  1.1T  0 disk 
└─sdv1                65:81   0  1.1T  0 part 
sdw                   65:96   0  1.1T  0 disk 
└─sdw1                65:97   0  1.1T  0 part 
sdy                   65:128  0  1.1T  0 disk 
└─sdy1                65:129  0  1.1T  0 part 
sdz                   65:144  0  1.1T  0 disk 
└─sdz1                65:145  0  1.1T  0 part 
sr0                   11:0    1 1024M  0 rom  
sdaa                  65:160  0  1.1T  0 disk 
└─sdaa1               65:161  0  1.1T  0 part 
sdab                  65:176  0  1.1T  0 disk 
└─sdab1               65:177  0  1.1T  0 part 
You have new mail in /var/spool/mail/root
[root@hnode3 ~]#

二、創(chuàng)建 ext4 文件系統(tǒng),即:格式化分區(qū)為ext4文件系統(tǒng)。

1.使用命令 mkfs.ext4 (make file system)報錯如下:

[root@hnode3 ~]# mkfs.ext4 /dev/sdd1
mke2fs 1.39 (29-May-2006)
/dev/sdd1 isapparently in use by the system; will not make a filesystem here!

WC報錯:
【Linux對磁盤進行清理、重建、配置文件系統(tǒng)和掛載,進行系統(tǒng)存儲管理調(diào)整存儲結(jié)構(gòu)】,服務器,linux,運維,服務器

意思是:/dev/sdd1 似乎已經(jīng)被系統(tǒng)占用,無法在這里創(chuàng)建文件系統(tǒng)。sdd1 是一個硬盤設備文件,如
果在使用中,系統(tǒng)可能已經(jīng)分配了這個設備。可以看到第一步執(zhí)行結(jié)果掛載點MOUNTPOINT下有/data。為了創(chuàng)建文件系統(tǒng),需要先卸載占用這個設備的程序,或者將設備重新分配給系統(tǒng)。那怎么辦呢?咱們往下走。

解決辦法1:(經(jīng)測試,不采用)X

卸載現(xiàn)有的文件系統(tǒng):

umount /dev/sdd1

創(chuàng)建一個新的ext4文件系統(tǒng):

mkfs.ext4 /dev/sdd1

在創(chuàng)建新的文件系統(tǒng)時,如果您的設備上已經(jīng)存在一個或多個文件系統(tǒng),則必須先卸載它們,否則將無法創(chuàng)建新的文件系統(tǒng)。此時還會報錯,繼續(xù)!

解決辦法2:(經(jīng)測試,不采用)X

使用 fdisk 或 parted 命令格式化 sdd1 設備,然后重新掛載 sdd1 設備 fdisk /dev/sdd1

解決辦法3:(采用)●

查看卷組信息
vgs或者vgdisplay

VG      #PV #LV #SN Attr   VSize   VFree   
vg_data  24   1   0 wz-pn- <26.20t  <17.41t
vg_srv    3   7   0 wz--n-   3.27t <985.62g

1.檢查是否有文件系統(tǒng)或其他進程掛載或訪問卷組(可跳過)
2.卸載文件系統(tǒng)

提示:刪除邏輯卷之前先卸載文件系統(tǒng)是因為邏輯卷上的文件系統(tǒng)可能正在被使用,文件系統(tǒng)是在邏輯卷上創(chuàng)建的,他是負責管理文件和目錄的結(jié)構(gòu)以及存儲數(shù)據(jù)的組織方式。文件系統(tǒng)被掛載后,系統(tǒng)會不斷地讀取、寫入、修改文件和目錄以及更新文件系統(tǒng)的元數(shù)據(jù)。如果這種情況下直接刪除邏輯卷,則會中斷文件系統(tǒng)的正常操作,可能會導致文件丟失、數(shù)據(jù)損壞或文件系統(tǒng)無法恢復。所以在刪除邏輯卷之前必須使用umount命令卸載文件系統(tǒng)保證不再被系統(tǒng)或其他進程使用。

umount /dev/卷組名稱/邏輯卷名稱

umount /dev/vg_data/edp_data

此時,再執(zhí)行第一步lsblk命令MOUNTPOINT下的 /data 就應該消失了接下來編輯/etc/fstab文件,注釋掉邏輯卷對應的掛載目錄,如下:

#/dev/vg_data/edp_data  /data  ext4  defaults  0 0

3-4. 刪除指定邏輯卷

lvremove /dev/vg_data/edp_data

此時,再執(zhí)行第一步lsblk命令 sdd1、sde1、sdf1、sdg1、sdh1、sdi1、sdj1、sdk1、sdjl 下的邏輯卷vg_data-edp_data 就應該消失了

3-5. 刪除卷組
執(zhí)行命令

vgremove vg_data  

可能出錯:Volume group “vg_data” not found, is inconsistent or has PVs missing.
出錯原因:物理卷缺失或元數(shù)據(jù)描述不一致
解決方法:

vgreduce --removemissing vg_data 

然后再執(zhí)行 vgremove vg_data 即可。
過程如下:

[root@hnode2 ~]# vgs
  WARNING: Device for PV Axs30r-DKSg-4sgo-0f24-Tthl-lrM8-aO0qWH not found or rejected by a filter.
  WARNING: Device for PV XNCljT-Da6w-5zmc-0WJh-MJAK-VDBa-Vq7h1L not found or rejected by a filter.
  Couldn't find device with uuid Axs30r-DKSg-4sgo-0f24-Tthl-lrM8-aO0qWH.
  Couldn't find device with uuid XNCljT-Da6w-5zmc-0WJh-MJAK-VDBa-Vq7h1L.
  VG      #PV #LV #SN Attr   VSize   VFree  
  vg_data  25   0   0 wz-pn- <27.29t <27.29t
  vg_srv    2   7   0 wz--n-   2.18t <67.84g
[root@hnode2 ~]# vgremove vg_data 
  WARNING: Device for PV Axs30r-DKSg-4sgo-0f24-Tthl-lrM8-aO0qWH not found or rejected by a filter.
  WARNING: Device for PV XNCljT-Da6w-5zmc-0WJh-MJAK-VDBa-Vq7h1L not found or rejected by a filter.
  Couldn't find device with uuid Axs30r-DKSg-4sgo-0f24-Tthl-lrM8-aO0qWH.
  Couldn't find device with uuid XNCljT-Da6w-5zmc-0WJh-MJAK-VDBa-Vq7h1L.
  Volume group "vg_data" not found, is inconsistent or has PVs missing.
  Consider vgreduce --removemissing if metadata is inconsistent.
You have mail in /var/spool/mail/root
[root@hnode2 ~]# vgreduce --removemissing vg_data
  WARNING: Device for PV Axs30r-DKSg-4sgo-0f24-Tthl-lrM8-aO0qWH not found or rejected by a filter.
  WARNING: Device for PV XNCljT-Da6w-5zmc-0WJh-MJAK-VDBa-Vq7h1L not found or rejected by a filter.
  Couldn't find device with uuid Axs30r-DKSg-4sgo-0f24-Tthl-lrM8-aO0qWH.
  Couldn't find device with uuid XNCljT-Da6w-5zmc-0WJh-MJAK-VDBa-Vq7h1L.
  Wrote out consistent volume group vg_data.
You have mail in /var/spool/mail/root
[root@hnode2 ~]# vgremove vg_data 
  Volume group "vg_data" successfully removed
[root@hnode2 ~]# vgs
  VG     #PV #LV #SN Attr   VSize VFree  
  vg_srv   2   7   0 wz--n- 2.18t <67.84g
You have mail in /var/spool/mail/root
[root@hnode2 ~]#

3-6. 清除物理卷(可跳過)

pvremove /dev/sdd
pvremove /dev/sde
pvremove /dev/sdf
pvremove /dev/sdg
pvremove /dev/sdh
pvremove /dev/sdi
pvremove /dev/sdj
pvremove /dev/sdk 
pvremove /dev/sdl 
pvremove /dev/sdm 
pvremove /dev/sdn 
pvremove /dev/sdo 
pvremove /dev/sdp 
pvremove /dev/sdq 
pvremove /dev/sdr 
pvremove /dev/sds 
pvremove /dev/sdt 
pvremove /dev/sdu 
pvremove /dev/sdv 
pvremove /dev/sdw 
pvremove /dev/sdx 
pvremove /dev/sdy 
pvremove /dev/sdz 
pvremove /dev/sdaa
pvremove /dev/sdab

3-7.刪除磁盤分區(qū)( d w ),執(zhí)行完以下命令

fdisk /dev/sdd
fdisk /dev/sde
fdisk /dev/sdf
fdisk /dev/sdg
fdisk /dev/sdh
fdisk /dev/sdi
fdisk /dev/sdj
fdisk /dev/sdk 
fdisk /dev/sdl 
fdisk /dev/sdm 
fdisk /dev/sdn 
fdisk /dev/sdo 
fdisk /dev/sdp 
fdisk /dev/sdq 
fdisk /dev/sdr 
fdisk /dev/sds 
fdisk /dev/sdt 
fdisk /dev/sdu 
fdisk /dev/sdv 
fdisk /dev/sdw 
fdisk /dev/sdx 
fdisk /dev/sdy 
fdisk /dev/sdz 
fdisk /dev/sdaa
fdisk /dev/sdab

過程如下:

[root@hnode3 ~]#  fdisk /dev/sdd
 WARNING: fdisk GPT support is currently new, and therefore in an experimental phase. Use at your own discretion.
 Welcome to fdisk (util-linux 2.23.2).
 
 Changes will remain in memory only, until you decide to write them.
 Be careful before using the write command.
 
 
 Command (m for help): d
 Selected partition 1
 Partition 1 is deleted
 
 Command (m for help): w
 The partition table has been altered!
 
 Calling ioctl() to re-read partition table.
 Syncing disks.
[root@hnode3 ~]#  fdisk /dev/sdc

3-8. 創(chuàng)建ext4文件系統(tǒng),即:格式化分區(qū)為ext4文件系統(tǒng)

mkfs.ext4 -F /dev/sdd 
mkfs.ext4 -F /dev/sde 
mkfs.ext4 -F /dev/sdf 
mkfs.ext4 -F /dev/sdg 
mkfs.ext4 -F /dev/sdh 
mkfs.ext4 -F /dev/sdi 
mkfs.ext4 -F /dev/sdj 
mkfs.ext4 -F /dev/sdk 
mkfs.ext4 -F /dev/sdl 
mkfs.ext4 -F /dev/sdm 
mkfs.ext4 -F /dev/sdn 
mkfs.ext4 -F /dev/sdo 
mkfs.ext4 -F /dev/sdp 
mkfs.ext4 -F /dev/sdq 
mkfs.ext4 -F /dev/sdr 
mkfs.ext4 -F /dev/sds 
mkfs.ext4 -F /dev/sdt 
mkfs.ext4 -F /dev/sdu 
mkfs.ext4 -F /dev/sdv 
mkfs.ext4 -F /dev/sdw 
mkfs.ext4 -F /dev/sdx 
mkfs.ext4 -F /dev/sdy 
mkfs.ext4 -F /dev/sdz 
mkfs.ext4 -F /dev/sdaa
mkfs.ext4 -F /dev/sdab

三、通過UUID掛載單磁盤

1.查看可用的磁盤和其對應的UUID

UUID類似于 “xGf9KO-bTuD-ZOCf-3gne-FcmX-2i3v-P9m2Y2” 這樣的字符串

命令

lsblk -f  

或者

blkid

2.創(chuàng)建用于掛載的目錄

mkdir -p /data/data01  /data/data02  /data/data03  /data/data04  /data/data05  /data/data06  /data/data07  /data/data08  /data/data09  /data/data10  /data/data11  /data/data12  /data/data13  /data/data14  /data/data15  /data/data16  /data/data17  /data/data18  /data/data19  /data/data20  /data/data21  /data/data22  /data/data23  /data/data24 

3.掛載磁盤(注意:下面兩種方法,選其一,這里選方法一)

3-1. 方法一 : UUID掛載,執(zhí)行如下命令
mount UUID=674381fb-a275-4ac3-b100-ac584bdd55f0 /data/data01
mount UUID=9c34cda2-2f35-4b54-acdf-4a1f1719c750 /data/data02
mount UUID=3c127316-e48b-4d37-a3cd-c188169545ff /data/data03
mount UUID=f4a52c56-24fb-4b0b-88ce-a01894411fbb /data/data04
mount UUID=c039759a-d62e-4143-ba26-922d07c34257 /data/data05
mount UUID=318dc3ad-46ea-4001-a566-7e063c61cdcb /data/data06
mount UUID=fa83fcdc-3ed5-4e1c-9a71-882e9d2596c5 /data/data07
mount UUID=c0c01c9c-5c9d-4b20-8050-0c2aae34f0f9 /data/data08
mount UUID=6ca1476b-ea30-497b-b20e-b619b76812cf /data/data09
mount UUID=12b1b722-ac8e-4883-a859-2f4e36042351 /data/data10
mount UUID=2aef99a2-ae4e-40b5-ac15-e650a679b487 /data/data11
mount UUID=0dd6caa6-54bd-46e1-9ae6-8df8b1cbc8b4 /data/data12
mount UUID=f92a6cf4-57e8-4d01-b5ba-7df9d91f95b6 /data/data13
mount UUID=31002ad3-3b66-4691-bd20-0d82fa89ff90 /data/data14
mount UUID=cf64a8a8-5820-41dc-920d-f18e24f62623 /data/data15
mount UUID=9edeba3b-39e6-4373-8854-7e188ce69b0d /data/data16
mount UUID=6b4fce1e-4d1c-4674-b042-265ba448a2dc /data/data17
mount UUID=be80e106-41fd-4e55-ace8-a39405c46011 /data/data18
mount UUID=5883c1da-47e5-472c-8a5a-eebd781d6517 /data/data19
mount UUID=c1f66bf2-7981-4a3a-8e47-1fae29492b16 /data/data20
mount UUID=ba5ab178-ff9f-4923-9639-a01c06265b7f /data/data21
mount UUID=abdb2b93-ca9c-456c-80e7-afea5daecd6c /data/data22
mount UUID=4eebe0a5-f062-40e5-84af-253c2cd9f69e /data/data23
mount UUID=333c1707-d04c-4378-8eb8-c0310bc338b3 /data/data24 
3-2. 檢查掛載節(jié)點是否有誤如下:(沒問題)
[root@hnode3 ~]# df -h
Filesystem                  Size  Used Avail Use% Mounted on
/dev/mapper/vg_srv-lv_root  2.1T  1.1T 1016G  52% /
devtmpfs                    126G     0  126G   0% /dev
tmpfs                       126G     0  126G   0% /dev/shm
tmpfs                       126G   28M  126G   1% /run
tmpfs                       126G     0  126G   0% /sys/fs/cgro
/dev/mapper/vg_srv-lv_usr    51G  4.1G   46G   9% /usr
/dev/sda2                   194M  142M   52M  74% /boot
/dev/sda1                   200M  9.8M  191M   5% /boot/efi
/dev/mapper/vg_srv-lv_opt    51G   76M   50G   1% /opt
/dev/mapper/vg_srv-lv_tmp    51G   34M   50G   1% /tmp
/dev/mapper/vg_srv-lv_var    51G  2.8G   48G   6% /var
/dev/mapper/vg_srv-lv_home   51G  4.8G   46G  10% /home
tmpfs                        26G   12K   26G   1% /run/user/42
tmpfs                        26G     0   26G   0% /run/user/10
/dev/sdd                    1.1T   77M  1.1T   1% /data/data01
/dev/sde                    1.1T   77M  1.1T   1% /data/data02
/dev/sdf                    1.1T   77M  1.1T   1% /data/data03
/dev/sdg                    1.1T   77M  1.1T   1% /data/data04
/dev/sdh                    1.1T   77M  1.1T   1% /data/data05
/dev/sdi                    1.1T   77M  1.1T   1% /data/data06
/dev/sdj                    1.1T   77M  1.1T   1% /data/data07
/dev/sdk                    1.1T   77M  1.1T   1% /data/data08
/dev/sdl                    1.1T   77M  1.1T   1% /data/data09
/dev/sdm                    1.1T   77M  1.1T   1% /data/data10
/dev/sdn                    1.1T   77M  1.1T   1% /data/data11
/dev/sdo                    1.1T   77M  1.1T   1% /data/data12
/dev/sdp                    1.1T   77M  1.1T   1% /data/data13
/dev/sdq                    1.1T   77M  1.1T   1% /data/data14
/dev/sdr                    1.1T   77M  1.1T   1% /data/data15
/dev/sds                    1.1T   77M  1.1T   1% /data/data16
/dev/sdt                    1.1T   77M  1.1T   1% /data/data17
/dev/sdu                    1.1T   77M  1.1T   1% /data/data18
/dev/sdv                    1.1T   77M  1.1T   1% /data/data19
/dev/sdx                    1.1T   77M  1.1T   1% /data/data20
/dev/sdy                    1.1T   77M  1.1T   1% /data/data21
/dev/sdz                    1.1T   77M  1.1T   1% /data/data22
/dev/sdaa                   1.1T   77M  1.1T   1% /data/data23
/dev/sdab                   1.1T   77M  1.1T   1% /data/data24
[root@hnode3 ~]# 
3-2. 方法二 : 設備文件名掛載
mount /dev/sdd  /data/data01
mount /dev/sde  /data/data02
mount /dev/sdf  /data/data03
mount /dev/sdg  /data/data04
mount /dev/sdh  /data/data05
mount /dev/sdi  /data/data06
mount /dev/sdj  /data/data07
mount /dev/sdk  /data/data08
mount /dev/sdl  /data/data09
mount /dev/sdm  /data/data10
mount /dev/sdn  /data/data11
mount /dev/sdo  /data/data12
mount /dev/sdp  /data/data13
mount /dev/sdq  /data/data14
mount /dev/sdr  /data/data15
mount /dev/sds  /data/data16
mount /dev/sdt  /data/data17
mount /dev/sdu  /data/data18
mount /dev/sdv  /data/data19
mount /dev/sdw  /data/data20
mount /dev/sdx  /data/data21
mount /dev/sdy  /data/data22
mount /dev/sdz  /data/data23
mount /dev/sdaa /data/data24

4.編輯 /etc/fstab文件添加掛載內(nèi)容(與上一步驟連貫,上面方法一,這里也得是方法一的操作,反之同理)

4-1. 方法一 :UUID掛載需在 /etc/fstab 添加如下內(nèi)容,是為了重啟系統(tǒng)防止掛載節(jié)點丟失,確保系統(tǒng)在啟動時自動掛載并且更加穩(wěn)定便捷的運行。
UUID=674381fb-a275-4ac3-b100-ac584bdd55f0 /data/data01 ext4  defaults  0 0
UUID=9c34cda2-2f35-4b54-acdf-4a1f1719c750 /data/data02 ext4  defaults  0 0
UUID=3c127316-e48b-4d37-a3cd-c188169545ff /data/data03 ext4  defaults  0 0
UUID=f4a52c56-24fb-4b0b-88ce-a01894411fbb /data/data04 ext4  defaults  0 0
UUID=c039759a-d62e-4143-ba26-922d07c34257 /data/data05 ext4  defaults  0 0
UUID=318dc3ad-46ea-4001-a566-7e063c61cdcb /data/data06 ext4  defaults  0 0
UUID=fa83fcdc-3ed5-4e1c-9a71-882e9d2596c5 /data/data07 ext4  defaults  0 0
UUID=c0c01c9c-5c9d-4b20-8050-0c2aae34f0f9 /data/data08 ext4  defaults  0 0
UUID=6ca1476b-ea30-497b-b20e-b619b76812cf /data/data09 ext4  defaults  0 0
UUID=12b1b722-ac8e-4883-a859-2f4e36042351 /data/data10 ext4  defaults  0 0
UUID=2aef99a2-ae4e-40b5-ac15-e650a679b487 /data/data11 ext4  defaults  0 0
UUID=0dd6caa6-54bd-46e1-9ae6-8df8b1cbc8b4 /data/data12 ext4  defaults  0 0
UUID=f92a6cf4-57e8-4d01-b5ba-7df9d91f95b6 /data/data13 ext4  defaults  0 0
UUID=31002ad3-3b66-4691-bd20-0d82fa89ff90 /data/data14 ext4  defaults  0 0
UUID=cf64a8a8-5820-41dc-920d-f18e24f62623 /data/data15 ext4  defaults  0 0
UUID=9edeba3b-39e6-4373-8854-7e188ce69b0d /data/data16 ext4  defaults  0 0
UUID=6b4fce1e-4d1c-4674-b042-265ba448a2dc /data/data17 ext4  defaults  0 0
UUID=be80e106-41fd-4e55-ace8-a39405c46011 /data/data18 ext4  defaults  0 0
UUID=5883c1da-47e5-472c-8a5a-eebd781d6517 /data/data19 ext4  defaults  0 0
UUID=c1f66bf2-7981-4a3a-8e47-1fae29492b16 /data/data20 ext4  defaults  0 0
UUID=ba5ab178-ff9f-4923-9639-a01c06265b7f /data/data21 ext4  defaults  0 0
UUID=abdb2b93-ca9c-456c-80e7-afea5daecd6c /data/data22 ext4  defaults  0 0
UUID=4eebe0a5-f062-40e5-84af-253c2cd9f69e /data/data23 ext4  defaults  0 0
UUID=333c1707-d04c-4378-8eb8-c0310bc338b3 /data/data24 ext4  defaults  0 0
4-2.設備文件名掛載需添加如下
/dev/sdd1  /data/data01 ext4  defaults  0 0
/dev/sde1  /data/data02 ext4  defaults  0 0
/dev/sdf1  /data/data03 ext4  defaults  0 0
/dev/sdg1  /data/data04 ext4  defaults  0 0
/dev/sdh1  /data/data05 ext4  defaults  0 0
/dev/sdi1  /data/data06 ext4  defaults  0 0
/dev/sdj1  /data/data07 ext4  defaults  0 0
/dev/sdk1  /data/data08 ext4  defaults  0 0
/dev/sdl1  /data/data09 ext4  defaults  0 0
/dev/sdm1  /data/data10 ext4  defaults  0 0
/dev/sdn1  /data/data11 ext4  defaults  0 0
/dev/sdo1  /data/data12 ext4  defaults  0 0
/dev/sdp1  /data/data13 ext4  defaults  0 0
/dev/sdq1  /data/data14 ext4  defaults  0 0
/dev/sdr1  /data/data15 ext4  defaults  0 0
/dev/sds1  /data/data16 ext4  defaults  0 0
/dev/sdt1  /data/data17 ext4  defaults  0 0
/dev/sdu1  /data/data18 ext4  defaults  0 0
/dev/sdv1  /data/data19 ext4  defaults  0 0
/dev/sdw1  /data/data20 ext4  defaults  0 0
/dev/sdx1  /data/data21 ext4  defaults  0 0
/dev/sdz1  /data/data22 ext4  defaults  0 0
/dev/sdaa1 /data/data23 ext4  defaults  0 0

5.重新掛載/etc/fstab文件中系統(tǒng)列出的所有已配置但當前未掛載的文件系統(tǒng)

命令 mount -a

6.reboot 重啟之后

檢查命令: df -h --output=target,source,used,size | sort -k1 或 l
運行結(jié)果磁盤掛載正常,如下:文章來源地址http://www.zghlxwxcb.cn/news/detail-816276.html

[root@hnode1 ~]# lsblk 
NAME               MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                  8:0    0  1.1T  0 disk 
├─sda1               8:1    0  200M  0 part /boot/efi
├─sda2               8:2    0  200M  0 part /boot
├─sda3               8:3    0  1.1T  0 part 
│ ├─vg_srv-lv_root 253:0    0  2.1T  0 lvm  /
│ ├─vg_srv-lv_swap 253:1    0   16G  0 lvm  [SWAP]
│ ├─vg_srv-lv_usr  253:2    0   50G  0 lvm  /usr
│ ├─vg_srv-lv_opt  253:3    0   50G  0 lvm  /opt
│ ├─vg_srv-lv_tmp  253:4    0   50G  0 lvm  /tmp
│ ├─vg_srv-lv_var  253:5    0   50G  0 lvm  /var
│ └─vg_srv-lv_home 253:6    0   50G  0 lvm  /home
└─sda4               8:4    0    1M  0 part 
sdb                  8:16   0  1.1T  0 disk 
└─sdb1               8:17   0  1.1T  0 part 
  └─vg_srv-lv_root 253:0    0  2.1T  0 lvm  /
sdc                  8:32   0  1.1T  0 disk 
└─sdc1               8:33   0  1.1T  0 part 
  └─vg_srv-lv_root 253:0    0  2.1T  0 lvm  /
sdd                  8:48   0  1.1T  0 disk /data/data01
sde                  8:64   0  1.1T  0 disk /data/data02
sdf                  8:80   0  1.1T  0 disk /data/data03
sdg                  8:96   0  1.1T  0 disk /data/data04
sdh                  8:112  0  1.1T  0 disk /data/data05
sdi                  8:128  0  1.1T  0 disk /data/data06
sdj                  8:144  0  1.1T  0 disk /data/data07
sdk                  8:160  0  1.1T  0 disk /data/data08
sdl                  8:176  0  1.1T  0 disk /data/data09
sdm                  8:192  0  1.1T  0 disk /data/data10
sdn                  8:208  0  1.1T  0 disk /data/data11
sdo                  8:224  0  1.1T  0 disk /data/data12
sdp                  8:240  0  1.1T  0 disk /data/data13
sdq                 65:0    0  1.1T  0 disk /data/data14
sdr                 65:16   0  1.1T  0 disk /data/data15
sds                 65:32   0  1.1T  0 disk /data/data16
sdt                 65:48   0  1.1T  0 disk /data/data17
sdu                 65:64   0  1.1T  0 disk /data/data18
sdv                 65:80   0  1.1T  0 disk /data/data19
sdw                 65:96   0  1.1T  0 disk /data/data20
sdx                 65:112  0  1.1T  0 disk /data/data21
sdy                 65:128  0  1.1T  0 disk /data/data22
sdz                 65:144  0  1.1T  0 disk /data/data23
sr0                 11:0    1 1024M  0 rom  
sdaa                65:160  0  1.1T  0 disk /data/data24
[root@hnode1 ~]# 

到了這里,關于【Linux對磁盤進行清理、重建、配置文件系統(tǒng)和掛載,進行系統(tǒng)存儲管理調(diào)整存儲結(jié)構(gòu)】的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【Linux掛載磁盤】Linux系統(tǒng)掛載磁盤詳細操作步驟

    【Linux掛載磁盤】Linux系統(tǒng)掛載磁盤詳細操作步驟

    近期公司服務運行環(huán)境,從Windows服務器切換到了Linux服務器,于是開始了一波操作,整了兩天終于整完了,記錄一下騰訊云掛載數(shù)據(jù)盤的過程,因為云磁盤的大小只有600GB,然后就沒有進行分區(qū),直接整個掛載到/data的目錄下; 先上版本: 首先要確定的是云硬盤已經(jīng)在騰訊云的控制臺掛載

    2024年02月06日
    瀏覽(34)
  • linux-centos7操作系統(tǒng)查看系統(tǒng)未掛載的磁盤,掛載磁盤

    linux-centos7操作系統(tǒng)查看系統(tǒng)未掛載的磁盤,掛載磁盤

    linux-centos7操作系統(tǒng)查看系統(tǒng)未掛載的磁盤,掛載磁盤 查看當前磁盤空間 根目錄 / 下也只有44G,其他目錄只有10幾G,正式環(huán)境肯定不夠用 查看硬盤數(shù)量和分區(qū)情況 查看到/dev/vdb 有500多G了 將/dev/vdb在分出一個區(qū)使用 第一步:編輯分區(qū)。執(zhí)行命令fdisk /dev/vdb:該命令意思是為

    2024年02月14日
    瀏覽(24)
  • Linux 清理磁盤空間&使用du指令排查服務器磁盤占用過大的文件

    Linux 清理磁盤空間&使用du指令排查服務器磁盤占用過大的文件

    命令:df -h 參數(shù)說明: -a:列出所有的文件系統(tǒng),包括系統(tǒng)特有的/proc等文件系統(tǒng) -k:以KB的容器顯示各文件系統(tǒng) -m:以MB的容量顯示各文件系統(tǒng) -h:以人們較易閱讀的GB,MB,KB等格式自行顯示 -H:以 M=1000K代替M=1024K的進位方式 -T:連同該分區(qū)的文件系統(tǒng)名稱(例如ext3)也列出

    2024年02月06日
    瀏覽(34)
  • Linux系統(tǒng)設置開機自動掛載磁盤流程

    Linux系統(tǒng)設置開機自動掛載磁盤流程

    Linux系統(tǒng)設置開機自動掛載磁盤流程 ??在使用Linux系統(tǒng)服務器的時候,經(jīng)常會遇到服務器重啟之后磁盤掛載失效,雖然可以手動進行重新掛載,但是比較麻煩,這里給出開機自動掛載磁盤的方案。 ??整體方案就是配置“/etc/fstab”文件,再通過mount -a命令重新將“/etc/fsta

    2024年02月04日
    瀏覽(23)
  • 【Linux操作系統(tǒng)】深入理解Linux磁盤分區(qū)和掛載

    Linux磁盤分區(qū)和掛載是系統(tǒng)管理中非常重要的一部分,它們可以幫助我們更好地管理存儲空間和文件系統(tǒng)。本文將詳細介紹Linux磁盤分區(qū)和掛載的概念、原理以及實踐操作,并提供相應的例子、代碼和指令,幫助讀者全面了解和掌握這兩個關鍵概念。 磁盤分區(qū)是將物理硬盤劃

    2024年02月14日
    瀏覽(26)
  • 解決linux系統(tǒng)掛載NTFS格式磁盤的問題

    一般情況下,Linux是識別不了NTFS格式移動硬盤的(需要重編譯Linux核心才能,加掛NTFS分區(qū)),這時候為了能讓Linux服務器能夠識別NTFS的移動硬盤,就必須安裝ntfs-3g(Third Generation Read/Write NTFS Driver)的包。 NTFS-3G介紹 NTFS-3G是一個開源項目,NTFS-3G是為Linux, Android, Mac OS X, FreeBSD

    2024年02月11日
    瀏覽(23)
  • centos格式化xfs文件系統(tǒng)格式并設置自動啟動掛載磁盤

    非全方位資料,學習實踐而來,歡迎參考學習 要將 /dev/sdb1 分區(qū)快速格式化為 XFS 文件系統(tǒng)并設置開機自動掛載,可以按照以下步驟進行操作: 查看已連接的硬盤列表,主要是設備名稱(如 /dev/sda)、分區(qū)信息和容量。 安裝文件系統(tǒng)工具。 快速格式化分區(qū)為 XFS 文件系統(tǒng),強

    2024年02月04日
    瀏覽(26)
  • Linux系統(tǒng)Docker下面/var/lib/docker/overlay2磁盤空間清理

    1. 查看磁盤占用 df -h 2. Docker 的內(nèi)置 CLI 指令docker system df 可用于查詢鏡像(Images)、容器(Containers)和本地卷(Local Volumes)等空間使用大戶的空間占用情況。 ~]# docker system df 查看詳細 ~]# docker system df -v 3. 空間清理 【1】通過 Docker 內(nèi)置的 CLI 指令docker system prune來進行自動空

    2024年02月06日
    瀏覽(23)
  • linux掛載新磁盤后原數(shù)據(jù)文件不見了?丟失了嗎?沒有,教你找回解決辦法

    linux掛載新磁盤后原數(shù)據(jù)文件不見了?丟失了嗎?沒有,教你找回解決辦法

    不要慌!數(shù)據(jù)并沒有丟失。 比如掛載到了 /root下,原來/root下的文件全都不見了 此時我們只需要解掛: 執(zhí)行解除掛載: #umount /dev/vgdata/lwData? ? ? ? ?//解除掛載 提示目標忙也不要慌執(zhí)行以下操作: 看一下需要解卦的目錄下正在執(zhí)行的進程kill掉 #fuser -mw /root/? ? ? //查看root目

    2024年02月06日
    瀏覽(34)
  • 【Linux進行時】磁盤文件結(jié)構(gòu)

    【Linux進行時】磁盤文件結(jié)構(gòu)

    上篇文章,我們提及文件是存放在磁盤當中,本篇文件我們來了解一下磁盤的結(jié)構(gòu)?。?! ?什么是磁盤? ??磁盤(disk)是指利用磁記錄技術存儲數(shù)據(jù)的存儲器。 磁盤是計算機主要的存儲介質(zhì),可以存儲大量的二進制數(shù)據(jù),并且斷電后也能保持數(shù)據(jù)不丟失。早期計算機使用

    2024年02月05日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包