A. 怎樣在不重啟計算機的條件下重新掃描lvm和raid設備
lvm是類unix系統下的硬碟管理方式。
在LVM中物理卷會被叫做PV(physical volume),而操作系統可以便用的為VG(volume group),首先需要把PV添加到VG里,在這個VG建立之初就確定的這個VG的PP(Physical partition)會是多大,當PP為512MB里,哪添加到VG的PV就會按512MB大小來切分PV。我們在建立LV(Logical Volume)時,會確認在當前LV所要使用的PP的個數,和VG可用的PP個數,如果這個LV需要10GB哪就是20個PP。如果有一天10GB不夠用了,我們可以在線為這個LV添中PP,添加10個PP哪這個LV就為15GB。如果VG里已經沒有了可用的PP,哪可以再添一塊物理磁碟,添中到這個VG,再添加PP到LV。這是AIX的實現方式,個人記憶與linux不同的就是,PV,AIX里在PV一定是一塊物理磁碟,而linux是PV是通過fdisk /dev/sdb這樣的方式切分出來的。
RAID 有和硬體之分,RAID,比如常用的Mirror disk,就是的,或者2003里的鏡像。
硬體的是通過機器配置的RAID控制器來完成。
一般來說機器自身帶的RAID控制器無法完成在線添盤或都不能添盤。
後端存儲除外。
總結來說,LVM是的卷管理方式,而RAID是磁碟保護的方法。對於重要的業務來說,一般是同時存在。RAID用來保護物理的磁碟不會因為故障而中斷業務。LVM用來實現對卷的良性的管理,更好的利用磁碟資源。
B. 如何安全的刪除Linux LVM中的PV物理卷
情況介紹: 一、由於硬碟或者分區的操作方式其實都一樣,所以我這里就以分區為例。 二、/home分區2.6G,由如下pv組成: /dev/sda5 100M /dev/sda6 200M /dev/sda7 300M /dev/sda8 400M /dev/sda9 500M /dev/sda10 600M /dev/sda11 500M 很碎對吧?^_^因為測試。 三、隨機寫了一堆文件進去,用量達到了2G,空閑500M 四、准備將sda6這個200M的PV卸掉(卸掉的容量必須小於空閑容量) 好了開始具體操作了。 卸載分區(縮小操作必須卸載才能進行): umount /home 縮小分區: e2fsck -f /dev/liuhg_disk/home resize2fs /dev/liuhg_disk/home 2200M 首先將分區縮小到2200M這是為了給sda6騰出空間,sda6為200M,而我騰出了400M,因此應該是足夠的。 縮小邏輯卷: lvrece -L 2200M /dev/liuhg_disk/home 分區縮小了用到的邏輯卷也要隨著縮小,並查看PV使用的狀態: pvdisplay -m 顯示如下: --- Physical volume --- PV Name /dev/sda5 VG Name liuhg_disk PV Size 103.26 MiB / not usable 3.26 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 25 Free PE 0 Allocated PE 25 PV UUID 5lnx52-b4jc-OOfZ-f2QA-ttdQ-DZeD-Ce3rb3 --- Physical Segments --- Physical extent 0 to 24: Logical volume /dev/liuhg_disk/home Logical extents 0 to 24 --- Physical volume --- PV Name /dev/sda6 VG Name liuhg_disk PV Size 203.92 MiB / not usable 3.92 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 50 Free PE 0 <-----太悲劇了,sda6里寫滿了數據一點不剩 Allocated PE 50 <-----這50PE的數據要挪走才行,否則數據就丟了,並且存放的地方也必須是連續的至少50PE PV UUID S2ane6-nlFG-uSNR-35NP-Yxa6-cXRb-r8E8mK --- Physical Segments --- Physical extent 0 to 49: Logical volume /dev/liuhg_disk/home Logical extents 25 to 74 --- Physical volume --- PV Name /dev/sda7 VG Name liuhg_disk PV Size 305.89 MiB / not usable 1.89 MiB Allocatable yes PE Size 4.00 MiB Total PE 76 Free PE 76 <---這個分區有76個空餘,因此預計裝那50個是不會有問題的 Allocated PE 0 PV UUID 9CFnlx-CAEw-CSul-Rig9-FiCN-zK0a-oGmTEP --- Physical Segments --- Physical extent 0 to 75: FREE --- Physical volume --- PV Name /dev/sda8 VG Name liuhg_disk PV Size 407.87 MiB / not usable 3.87 MiB Allocatable yes PE Size 4.00 MiB Total PE 101 Free PE 60 Allocated PE 41 PV UUID X0I8p0-x2xr-2xLG-QQD4-jbtS-3C4i-xPn4Bl --- Physical Segments --- Physical extent 0 to 40: Logical volume /dev/liuhg_disk/home Logical extents 471 to 511 Physical extent 41 to 100: FREE --- Physical volume --- PV Name /dev/sda9 VG Name liuhg_disk PV Size 509.84 MiB / not usable 1.84 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 127 Free PE 0 Allocated PE 127 PV UUID avJQaA-oMKt-NEoJ-ojBK-2Csc-1dca-1mh6Ue --- Physical Segments --- Physical extent 0 to 126: Logical volume /dev/liuhg_disk/home Logical extents 225 to 351 --- Physical volume --- PV Name /dev/sda10 VG Name liuhg_disk PV Size 603.98 MiB / not usable 3.98 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 150 Free PE 0 Allocated PE 150 PV UUID JlMIAF-A49n-M6HA-ZLXf-d8nS-pfZr-YeQsKT --- Physical Segments --- Physical extent 0 to 149: Logical volume /dev/liuhg_disk/home Logical extents 75 to 224 --- Physical volume --- PV Name /dev/sda11 VG Name liuhg_disk PV Size 478.47 MiB / not usable 2.47 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 119 Free PE 0 Allocated PE 119 PV UUID xnHJNA-tDVx-dryX-KM1x-g96Y-sptI-9iUOcU --- Physical Segments --- Physical extent 0 to 118: Logical volume /dev/liuhg_disk/home Logical extents 352 to 470 將sda6設置為離線狀態: pvchange -xn /dev/sda6 使用pvdisplay -m 顯示如下: …… --- Physical volume --- PV Name /dev/sda6 VG Name liuhg_disk PV Size 203.92 MiB / not usable 3.92 MiB Allocatable NO <-----表示已經關閉了該PV PE Size 4.00 MiB Total PE 50 Free PE 0 Allocated PE 50 PV UUID S2ane6-nlFG-uSNR-35NP-Yxa6-cXRb-r8E8mK …… 將sda6的數據移走: pvmove -i 1 /dev/sda6 -i 1是每1秒鍾報告一次數據遷移的進度。 [root@liuhg /]# pvmove -i 1 /dev/sda6 /dev/sda6: Moved: 38.0% /dev/sda6: Moved: 84.0% /dev/sda6: Moved: 100.0% 重新用pvdisplay -m 顯示如下: …… --- Physical volume --- PV Name /dev/sda6 VG Name liuhg_disk PV Size 203.92 MiB / not usable 3.92 MiB Allocatable NO PE Size 4.00 MiB Total PE 50 Free PE 50 <----顯示完全空閑和Total PE數一致 Allocated PE 0 PV UUID S2ane6-nlFG-uSNR-35NP-Yxa6-cXRb-r8E8mK …… 從卷組里把sda6刪除: [root@liuhg /]# vgrece liuhg_disk /dev/sda6 Removed "/dev/sda6" from volume group "liuhg_disk" pvdisplay -m再看看吧: --- NEW Physical volume --- <-----還告訴你這是一個新的PV ^_^ PV Name /dev/sda6 VG Name <-----空了 PV Size 203.92 MiB Allocatable NO PE Size 0 Total PE 0 Free PE 0 Allocated PE 0 PV UUID S2ane6-nlFG-uSNR-35NP-Yxa6-cXRb-r8E8mK 到此vgdisplay -v能看到已經沒有了/dev/sda6了。重新掛載/home [root@liuhg /]# mount /dev/liuhg_disk/home /home [root@liuhg /]# df -h Filesystem Size Used Avail Use% Mounted on /dev/sda1 2.0G 546M 1.3G 30% / tmpfs 504M 0 504M 0% /dev/shm /dev/mapper/liuhg_disk-home 2.2G 1.8G 42M 98% /home 進去看看數據,一個都沒丟。
C. 如何使用LVM卷管理Linux系統中的磁碟
LVM邏輯卷管理器是對Linux系統中對存儲資源進行管理的一種機制,部署LVM邏輯卷管理器需要依次對對物理卷、卷組和邏輯卷的逐個配置,常見的命令分別包括有:
功能/命令 物理卷管理 卷組管理 邏輯卷管理
掃描 pvscan vgscan lvscan
建立 pvcreate vgcreate lvcreate
顯示 pvdisplay vgdisplay lvdisplay
刪除 pvremove vgremove lvremove
擴展 vgextend lvextend
為避免實驗之間互相沖突,請您自行還原虛擬機到最初始狀態,並在虛擬機中添加兩塊新硬碟設備後開機,如圖7-7所示:
圖7-7 在虛擬機中添加一塊新的硬碟設備
在虛擬機中添加兩塊新硬碟設備的目的是為了更好的向同學們演示LVM邏輯卷管理器對於讓用戶無需關心底層物理硬碟設備的特性,咱們將會對這兩塊新的硬碟先進行創建物理卷操作,可以簡單理解成讓硬碟設備支持了LVM技術,然後將兩塊硬碟進行卷組合並,卷組的名稱可以由您來自定義,接下來是將合並後的卷組根據需求再切割出一個約為150M的邏輯卷設備,最後將這個邏輯卷設備格式化成XFS文件系統後掛載使用。現在知道大致的流程後就可以,劉遄老師還會對下面每一個步驟再做一些簡單的描述。
第1步:讓新添加的兩塊硬碟設備支持LVM邏輯卷管理器技術:
[root@linuxprobe ~]# pvcreate /dev/sdb /dev/sdc
Physical volume "/dev/sdb" successfully created
Physical volume "/dev/sdc" successfully created
第2步:將兩塊硬碟設備都加入到storage卷組中,然後查看下卷組的狀態:
[root@linuxprobe ~]# vgcreate storage /dev/sdb /dev/sdc
Volume group "storage" successfully created
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 0 / 0 Free PE / Size 10238 / 39.99 GiB
VG UUID KUeAMF-qMLh-XjQy-ArUo-LCQI-YF0o-pScxm1
………………省略部分輸出信息………………
第3步:切割出一個約為150M的邏輯卷設備:
同學們需要注意下切割單位的問題,在LVM邏輯卷管理器對LV邏輯卷的切割上面有兩種計量單位,第一種是常見以-L參數來以容量單位為對象,例如使用-L 150M來生成一個大小為150M的邏輯卷,還可以使用-l參數來指定要使用PE基本單元的個數,默認每個PE的大小為4M,因此允許使用-l 37來生成一個大小為37*4M=148M的邏輯卷:
[root@linuxprobe ~]# lvcreate -n vo -l 37 storage
Logical volume "vo" created
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/vo
LV Name vo
VG Name storage
LV UUID D09HYI-BHBl-iXGr-X2n4-HEzo-FAQH-HRcM2I
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 01:22:54 -0500
LV Status available
# open 0
LV Size 148.00 MiB
Current LE 37
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:2
………………省略部分輸出信息………………
第4步:將生成好的邏輯卷格式化後掛載使用:
Linux系統會把LVM邏輯卷管理器中的邏輯卷設備存放在/dev設備目錄中(實際上是做了一個符號鏈接,但讀者們無需關心),同時會以卷組的名稱來建立一個目錄,其中保存有邏輯卷的設備映射文件。
[root@linuxprobe ~]# mkfs.ext4 /dev/storage/vo
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=0 blocks, Stripe width=0 blocks
38000 inodes, 151552 blocks
7577 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=33816576
19 block groups
8192 blocks per group, 8192 fragments per group
2000 inodes per group
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729
Allocating group tables: done
Writing inode tables: done
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done
[root@linuxprobe ~]# mkdir /linuxprobe
[root@linuxprobe ~]# mount /dev/storage/vo /linuxprobe
第5步:查看掛載狀態,並寫入到配置文件永久生效:
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 905M 0 905M 0% /dev
tmpfs 914M 140K 914M 1% /dev/shm
tmpfs 914M 8.8M 905M 1% /run
tmpfs 914M 0 914M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 145M 7.6M 138M 6% /linuxprobe
[root@linuxprobe ~]# echo "/dev/storage/vo /linuxprobe ext4 defaults 0 0" >> /etc/fstab
7.2.2 擴容邏輯卷
雖然咱們的卷組是由兩塊硬碟設備共同組成的,但用戶使用存儲資源時感知不到底層硬碟的結構,也不用關心底層是由多少塊硬碟組成的,只要卷組中的資源足夠就可以一直為邏輯卷擴容,擴展前請一定要記得卸載設備和掛載點的關聯。
[root@linuxprobe ~]# umount /linuxprobe
第1步:將上個實驗中的邏輯卷vo擴展至290M:
[root@linuxprobe ~]# lvextend -L 290M /dev/storage/vo
Rounding size to boundary between physical extents: 292.00 MiB
Extending logical volume vo to 292.00 MiB
Logical volume vo successfully resized
第2步:檢查磁碟完整性,重置硬碟容量:
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/38000 files (0.0% non-contiguous), 10453/151552 blocks
[root@linuxprobe ~]# resize2fs /dev/storage/vo
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 299008 (1k) blocks.
The filesystem on /dev/storage/vo is now 299008 blocks long.
第3步:重新掛載硬碟設備並查看掛載狀態:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 279M 2.1M 259M 1% /linuxprobe
7.2.3 縮小邏輯卷
相比於擴容邏輯卷來講,對邏輯卷的縮小操作存在著更高丟失數據的風險,所以在生產環境中同學們一定要留心記得提前備份好數據,另外Linux系統規定對LVM邏輯卷的縮小操作需要先檢查文件系統的完整性,當然這也是在保證咱們的數據安全,操作前記得先把文件系統卸載掉:
[root@linuxprobe ~]# umount /linuxprobe
第1步:檢查文件系統的完整性:
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/74000 files (0.0% non-contiguous), 15507/299008 blocks
第2步:將LV邏輯卷的容量減小到120M:
[root@linuxprobe ~]# resize2fs /dev/storage/vo 120M
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 122880 (1k) blocks.
The filesystem on /dev/storage/vo is now 122880 blocks long.
[root@linuxprobe ~]# lvrece -L 120M /dev/storage/vo
WARNING: Recing active logical volume to 120.00 MiB
THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to rece vo? [y/n]: y
Recing logical volume vo to 120.00 MiB
Logical volume vo successfully resized
第3步:將文件系統重新掛載並查看系統狀態:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 113M 1.6M 103M 2% /linuxprobe
7.2.4 邏輯卷快照
除此之外LVM邏輯卷管理器還具備有「快照卷」的功能,這項功能很類似於我們其他軟體的還原時間點功能。例如我們可以對某一個LV邏輯卷設備做一次快照,如果今後發現數據被改錯了,咱們可以將之前做好的快照卷進行覆蓋還原,LVM邏輯卷管理器的快照功能有兩項特點,第一是快照卷的大小應該盡量等同於LV邏輯卷的容量,第二是快照功能僅一次有效,一旦被還原後則會被自動立即刪除。我們首先應當查看下卷組的信息:
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 4
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 30 / 120.00 MiB Free PE / Size 10208 / 39.88 GiB
VG UUID CTaHAK-0TQv-Abdb-R83O-RU6V-YYkx-8o2R0e
………………省略部分輸出信息………………
通過卷組的輸出信息可以很清晰的看到卷組中已用120M,空閑資源有39.88G,接下來咱們在邏輯卷設備所掛載的目錄中用重定向寫入一個文件吧:
[root@linuxprobe ~]# echo "Welcome to Linuxprobe.com" > /linuxprobe/readme.txt
[root@linuxprobe ~]# ls /linuxprobe
total 14
drwx------. 2 root root 12288 Feb 1 07:18 lost+found
-rw-r--r--. 1 root root 26 Feb 1 07:38 readme.txt
第1步:使用-s參數來生成一個快照卷,使用-L參數來指定切割的大小,另外要記得在後面寫上這個快照是針對那個邏輯卷做的。
[root@linuxprobe ~]# lvcreate -L 120M -s -n SNAP /dev/storage/vo
Logical volume "SNAP" created
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID BC7WKg-fHoK-Pc7J-yhSd-vD7d-lUnl-TihKlt
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 07:42:31 -0500
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 120.00 MiB
Current LE 30
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 0.01%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3
………………省略部分輸出信息………………
第2步:咱們在LV設備卷所掛載的目錄中創建一個100M的垃圾文件,這樣再來看快照卷的狀態就會發現使用率上升了:
[root@linuxprobe ~]# dd if=/dev/zero of=/linuxprobe/files count=1 bs=100M
1+0 records in
1+0 records out
104857600 bytes (105 MB) copied, 3.35432 s, 31.3 MB/s
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID BC7WKg-fHoK-Pc7J-yhSd-vD7d-lUnl-TihKlt
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 07:42:31 -0500
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 120.00 MiB
Current LE 30
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 83.71%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3
第3步:為了校驗SNAP快照卷的效果,咱們需要對邏輯卷進行快照合並還原操作,在這之前記得先卸載掉邏輯卷設備與目錄的掛載~
[root@linuxprobe ~]# umount /linuxprobe
[root@linuxprobe ~]# lvconvert --merge /dev/storage/SNAP
Merging of volume SNAP started.
vo: Merged: 21.4%
vo: Merged: 100.0%
Merge of snapshot into logical volume vo has finished.
Logical volume "SNAP" successfully removed
第4步:快照卷會被自動刪除掉,並且剛剛在邏輯卷設備被快照後再創建出來的100M垃圾文件也被清除了:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# ls /linuxprobe/
lost+found readme.txt
看下《Linux就該這么學》第7章節吧,第7章 使用RAID與LVM磁碟陣列技術
D. 如何在 Ubuntu 中管理和使用邏輯卷管理 LVM
中之一開頭: Physical Volume (物理卷) = pv Volume Group (卷組)= vg Logical Volume (邏輯卷)= lv 物理卷命令用於在卷組中添加或刪除硬碟驅動。卷組命令用於為你的邏輯卷操作更改顯示的物理分區抽象集。邏輯卷命令會以分區形式顯示卷組,使得你的操作系統能使用指定的空間。 可下載的 LVM 備忘單 為了幫助你理解每個前綴可用的命令,我們製作了一個備忘單。我們會在該文章中介紹一些命令,但仍有很多你可用但沒有介紹到的命令。 該列表中的所有命令都要以 root 身份運行,因為你更改的是會影響整個機器系統級設置。 如何查看當前 LVM 信息 你首先需要做的事情是檢查你的 LVM 設置。s 和 display 命令可以和物理卷(pv)、卷組(vg)以及邏輯卷(lv)一起使用,是一個找出當前設置的好起點。 display 命令會格式化輸出信息,因此比 s 命令更易於理解。對每個命令你會看到名稱和 pv/vg 的路徑,它還會給出空閑和已使用空間的信息。 最重要的信息是 PV 名稱和 VG 名稱。用這兩部分信息我們可以繼續進行 LVM 設置。 創建一個邏輯卷 邏輯卷是你的操作系統在 LVM 中使用的分區。創建一個邏輯卷,首先需要擁有一個物理卷和卷組。下面是創建一個新的邏輯卷所需要的全部命令。 創建物理卷 我們會從一個全新的沒有任何分區和信息的硬碟開始。首先找出你將要使用的磁碟。(/dev/sda, sdb, 等) 注意:記住所有的命令都要以 root 身份運行或者在命令前面添加 'sudo' 。 fdisk -l 如果之前你的硬碟從未格式化或分區過,在 fdisk 的輸出中你很可能看到類似下面的信息。這完全正常,因為我們會在下面的步驟中創建需要的分區。 我們的新磁碟位置是 /dev/sdb,讓我們用 fdisk 命令在磁碟上創建一個新的分區。 這里有大量能創建新分區的 GUI 工具,包括 Gparted,但由於我們已經打開了終端,我們將使用 fdisk 命令創建需要的分區。 在終端中輸入以下命令: fdisk /dev/sdb 這會使你進入到一個特殊的 fdisk 提示符中。 以指定的順序輸入命令創建一個使用新硬碟 100% 空間的主分區並為 LVM 做好了准備。如果你需要更改分區的大小或想要多個分區,我建議使用 GParted 或自己了解一下關於 fdisk 命令的使用。 警告:下面的步驟會格式化你的硬碟驅動。確保在進行下面步驟之前你的硬碟驅動中沒有任何有用的信息。 n = 創建新分區 p = 創建主分區 1 = 成為磁碟上的首個分區 輸入 enter 鍵兩次以接受默認的第一個和最後一個柱面。 用下面的命令准備 LVM 所使用的分區。 t = 更改分區類型 8e = 更改為 LVM 分區類型 核實並將信息寫入硬碟。 p = 查看分區設置使得在寫入更改到磁碟之前可以回看 w = 寫入更改到磁碟 運行這些命令之後,會退出 fdisk 提示符並返回到終端的 bash 提示符中。 輸入 pvcreate /dev/sdb1 在剛創建的分區上新建一個 LVM 物理卷。 你也許會問為什麼我們不用一個文件系統格式化分區,不用擔心,該步驟在後面。 創建卷組 現在我們有了一個指定的分區和創建好的物理卷,我們需要創建一個卷組。
E. 卷組遷移
以下過程說明了如何遷移程序包的各個卷組,這些程序包被配置在給定的節點上運行。應該同時轉換一個程序包的所有卷組。
假定節點上已安裝了 VxVM 軟體及相應版本的 HP-UX 和 Serviceguard,而且該節點已重新引導,並已重新加入群集。並且進一步假定您已按照前文「創建根磁碟組」中所述在節點上創建了一個 rootdg。
將激活要轉換為 VxVM 的卷組的程序包暫停:
# cmhaltpkg 程序包名
以只讀方式激活 LVM 卷組:
# vgchange -a r 卷組名
採用最適合於此卷組所包含的數據的方式備份卷組數據。例如,可以使用 Omniback 等備份和還原實用程序,或者使用 dd 等 HP-UX 實用程序。
備份卷組配置:
# vgcfgbackup
定義新的 VxVM 磁碟組和邏輯卷。需要具有足夠的磁碟空間,用於創建所有 LVM 卷組的 VxVM 版本。您應創建與 LVM 配置具有相同常規布局的 VxVM 邏輯卷。例如,LVM 鏡像卷可以在一個 SCSI 控制器上具有一個鏡像副本,而第二個副本位於另一個控制器上,以防止發生禁用整個卷的單一控制器故障(有時 LVM 中的物理卷組會強行執行這種分離操作)。創建 VxVM 叢時,應遵循相同的鏡像模式,不同的叢應配置到連接在不同匯流排的磁碟上。
還可以在新的磁碟集上定義 VxVM 磁碟組,可以使用 vxvmconvert(1M) 實用程序將現有的 LVM 卷組轉換為內置的 VxVM 磁碟組。有關該實用程序的信息、局限性以及警告,請參閱您的版本所對應的《《Veritas Volume Manager Migration Guide》》(http://www.docs.hp.com)。如果使用的是 vxconvert(1M) 實用程序,請跳過下一步,直接進入下一節。
注釋:請記住,必須在 LVM 卷組和物理卷上配置群集鎖磁碟。如果某個鎖卷組包含要移動到 VxVM 的數據,可以執行此移動操作,但不要使用 vxvmconvert命令,因為鎖磁碟仍然會需要 LVM 標題。
將數據還原到新的 VxVM 磁碟組。採用上述第 3 步中的最佳數據備份方式進行還原。
http://docs.hp.com/zh_cn/B3936-90120/apgs02.html
F. 如何在LINUX下使用LVM
LVM是Logical Volume Manager(邏輯卷管理器)的簡寫,它為主機提供了更高層次的磁碟存儲管理能力。LVM可以幫助系統管理員為應用與用戶方便地分配存儲空間。在LVM管理下的邏輯卷可以按需改變大小或添加移除。另外,LVM可以為所管理的邏輯卷提供定製的命名標識。因此,使用LVM主要是方便了對存儲系統的管理,增加了系統的擴展性。
一、准備lvm環境
1.硬碟的准備
添加了一塊硬碟/dev/hdb。
准備了三個分區,方案如下:容量為100M,僅為了實驗准備。
/dev/hdb1
/dev/hdb2
/dev/hdb3
2.轉換分區類型為lvm卷
fdisk /dev/hdb
t轉換為lvm卷類型
Device Boot Start End Blocks Id System
/dev/hdb1 1 208 98248+ 8e Linux LVM
/dev/hdb2 209 416 98280 8e Linux LVM
/dev/hdb3 417 624 98280 8e Linux LVM
然後w保存並且
#partprobe /*使用磁碟分區生效*/
二、lvm創建過程
1.從硬碟驅動器分區中創建物理卷(physical volumes-PV)。
2.從物理卷中創建卷組(volume groups-VG)
3.從卷組中創建邏輯卷(logical volumes-LV),並分派邏輯卷掛載點,其中只有邏輯卷才可以寫數據。
lvm的最大的特點就是可以動態的調整分區的大小,並且可以隨著分區容量的增長而增加磁碟空間的容量。
LVM配置與創建
三、LVM的物理卷PV
1.相關命令
pvcreate 創建PV
pvscan 掃描PV
pvdisplay 顯示PV
pvremove 刪除PV
partprobe
2.創建物理卷
如果以上容量不夠,可以再添加其它分區到物理卷中。
[root@redhat ~]# pvcreate /dev/hdb1 /dev/hdb2
Physical volume 「/dev/hdb1″ successfully created
Physical volume 「/dev/hdb2″ successfully created
[root@redhat ~]# pvscan
PV /dev/hdb1 lvm2 [95.95 MB]
PV /dev/hdb2 lvm2 [95.98 MB]
Total: 2 [191.92 MB] / in use: 0 [0 ] / in no VG: 2 [191.92 MB]
[root@redhat ~]# pvdisplay
— NEW Physical volume —
PV Name /dev/hdb1
VG Name
PV Size 95.95 MB
Allocatable NO
PE Size (KByte) 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID 2Ni0Tx-oeSy-zGUP-t7KG-Fh22-0BUi-iyPhhQ
— NEW Physical volume —
PV Name /dev/hdb2
VG Name
PV Size 95.98 MB
Allocatable NO
PE Size (KByte) 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID 2XLXfY-V3L2-Mtsl-79U4-ovuJ-YaQf-YV9qHs
四、創建LVM的卷組VG
1.相關命令
vgcreate 創建VG
vgscan 掃描VG
vgdispaly
vgextend
vgrece
vgchange
vgremove
2.創建邏輯卷VG
[root@redhat ~]# vgcreate vg0 /dev/hdb1 /dev/hdb2
Volume group 「vg0″ successfully created
[root@redhat ~]# vgscan
Reading all physical volumes. This may take a while…
Found volume group 「vg0″ using metadata type lvm2
[root@redhat ~]# vgdisplay
— Volume group —
VG Name vg0
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 184.00 MB
PE Size 4.00 MB /*分配的塊的大小默認為4M*/
Total PE 46
Alloc PE / Size 0 / 0
Free PE / Size 46 / 184.00 MB
VG UUID kL5CGk-5Odk-r3PK-9q0A-s94h-OHv4-BojBnH增加VG容量到1TB的方法:
vgcreate -s 16M vg0 /dev/hdb1 /dev/hdb2
3.刪除與添加邏輯卷
[root@redhat ~]# vgrece vg0 /dev/hdb2
Removed 「/dev/hdb2″ from volume group 「vg0″
[root@redhat ~]# vgextend vg0 /dev/hdb2
Volume group 「vg0″ successfully extended
五、創建LVM的邏輯卷LV
1.相關命令
lvcreate
lvscan
lvdisplay
lvextend
lvrece
lvremove
lvresize
2.創建邏輯卷LV
[root@redhat ~]# lvcreate -L 184M -n data vg0
Logical volume 「data」 created
[root@redhat ~]# lvscan
ACTIVE 『/dev/vg0/data』 [184.00 MB] inherit
[root@redhat ~]# lvdisplay
— Logical volume —
LV Name /dev/vg0/data
VG Name vg0
LV UUID HNKO5d-yRre-qVnP-ZT8D-fXir-XTeM-r6WjDX
LV Write Access read/write
LV Status available
# open 0
LV Size 184.00 MB
Current LE 46
Segments 2
Allocation inherit
Read ahead sectors 0
Block device 253:0
六、掛載LVM的邏輯卷LV
lv的格式化:
mkfs.ext3 /dev/vg0/data
mdkir /mnt/lvm
mount /dev/vg0/data /mnt/lvm
[root@redhat ~]# ls /mnt/lvm
lost+found
[root@redhat ~]# df -T
文件系統 類型 1K-塊 已用 可用 已用% 掛載點
/dev/hda3 ext3 7625092 2219460 5012040 31% /
/dev/hda1 ext3 101086 10006 85861 11% /boot
tmpfs tmpfs 150108 0 150108 0% /dev/shm
/dev/mapper/vg0-data
ext3 182469 5664 167385 4% /mnt/lvm
七、LVM的容量調整
LVM的容量調整可以在多個環節進行調整,比如:可以在物理卷上,VG上,以及LV上,都可以進行容量的擴展,這也是LVM它的一個優勢所在。
1.添加物理卷
首先應卸載在使用過程中的LV,然後必須保證該磁碟的類型是lvm類型,才能添加進來。
[root@redhat ~]# umount /dev/vg0/data
[root@redhat ~]# pvcreate /dev/hdb3
Physical volume 「/dev/hdb3″ successfully created
[root@redhat ~]# pvscan
PV /dev/hdb1 VG vg0 lvm2 [92.00 MB / 0 free]
PV /dev/hdb2 VG vg0 lvm2 [92.00 MB / 0 free]
PV /dev/hdb3 lvm2 [95.98 MB]
Total: 3 [279.98 MB] / in use: 2 [184.00 MB] / in no VG: 1 [95.98 MB]
2.添加VG的容量
把上面新添加的LVM磁碟加入到vg0卷組中。
[root@redhat ~]# vgextend vg0 /dev/hdb3
Volume group 「vg0″ successfully extended
[root@redhat ~]# vgdisplay
— Volume group —
VG Name vg0
System ID
Format lvm2
Metadata Areas 3
Metadata Sequence No 5
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 3
Act PV 3
VG Size 276.00 MB
PE Size 4.00 MB
Total PE 69
Alloc PE / Size 46 / 184.00 MB
Free PE / Size 23 / 92.00 MB
VG UUID kL5CGk-5Odk-r3PK-9q0A-s94h-OHv4-BojBnH
3.添加入LV中VG增珈的容量
把新加入LVM磁碟的容量加入LV中。
[root@redhat ~]# lvextend -L +92M /dev/vg0/data
Extending logical volume data to 276.00 MB
Logical volume data successfully resized
[root@redhat ~]# lvscan
ACTIVE 『/dev/vg0/data』 [276.00 MB] inherit
[root@redhat ~]# resize2fs -f /dev/vg0/data
resize2fs 1.39 (29-May-2006)
Resizing the filesystem on /dev/vg0/data to 282624 (1k) blocks.
The filesystem on /dev/vg0/data is now 282624 blocks long.
如果不做這一步的話,在實現掛載的時候,發現LV的容量沒有真正的加入進LV卷中,因為相關信息寫入到了磁碟超級塊中。
4.掛載使用
[root@redhat ~]# mount /dev/vg0/data /mnt/lvm
[root@redhat ~]# df
文件系統 1K-塊 已用 可用 已用% 掛載點
/dev/hda3 7625092 2219468 5012032 31% /
/dev/hda1 101086 10006 85861 11% /boot
tmpfs 150108 0 150108 0% /dev/shm
/dev/mapper/vg0-data 273569 6168 256097 3% /mnt/lvm
LVM的卸載
八、LVM的卸載方法
如果不想使用LVM的話,可以卸載它, 卸載的方法與分區的刪除方法類似,就是最後創建的最先刪除。順序如下:
先刪除LV
再刪除VG
最後PV
以前的LVM的分區應用fdisk轉換成其它類型的文件系統,當普通分區使用。
九、LVM的卸載過程
1.umount取消掛載
[root@redhat ~]# df
文件系統 1K-塊 已用 可用 已用% 掛載點
/dev/hda3 7625092 2219468 5012032 31% /
/dev/hda1 101086 10006 85861 11% /boot
tmpfs 150108 0 150108 0% /dev/shm
/dev/mapper/vg0-data 273569 6168 256097 3% /mnt/lvm
[root@redhat ~]# umount /mnt/lvm
2.刪除LV邏輯卷
[root@redhat ~]# lvremove /dev/vg0/data
Do you really want to remove active logical volume 「data」? [y/n]: y
Logical volume 「data」 successfully removed
3.刪除VG卷組
[root@redhat ~]# vgchange -a n vg0
0 logical volume(s) in volume group 「vg0″ now active
說明:把vg0轉換成休眠狀態,實驗中這一步可以不用。
[root@redhat ~]# vgremove vg0
Volume group 「vg0″ successfully removed
4.刪除PV
[root@redhat ~]# pvscan 查看pv的情況
PV /dev/hdb1 lvm2 [95.95 MB]
PV /dev/hdb2 lvm2 [95.98 MB]
PV /dev/hdb3 lvm2 [95.98 MB]
Total: 3 [287.90 MB] / in use: 0 [0 ] / in no VG: 3 [287.90 MB]
[root@redhat ~]# pvremove /dev/hdb1 /dev/hdb2 /dev/hdb3
Attempt to close device 『/dev/cdrom』 which is not open.
Labels on physical volume 「/dev/hdb1″ successfully wiped
Labels on physical volume 「/dev/hdb2″ successfully wiped
Labels on physical volume 「/dev/hdb3″ successfully wiped
5.最後就是用fdisk修改磁碟的類型了。
G. 移動硬碟變為LVM物理卷了如何恢復
硬碟發生故障以後要權衡下數據的重要性。如果超過保修了不建議維修,因為硬碟不同於其他電子產品,維修以後隱患非常大,而且維修成本比較高。,如果數據重要,要謹慎通電嘗試,一般物理故障非常忌諱長時間通電嘗試,比如壞道問題會加重,磁頭故障會劃傷盤面。硬碟壞了屬於物理故障,通過軟體是無法解決的,軟體恢復只能解決誤刪除、格式化這類的軟體問題。硬碟發生了物理故障時候,如數據重要,一定要選擇51Recovery這樣專業的數據恢復機構才有幾率恢復數據。硬碟物理故障的數據恢復絕對不同於普通的電腦維修,是一項對技術,設備,操作環境都要求很高的技術,電腦賣場的不要選擇,大多是通過軟體解決一些軟體問題,或者是飛單實現硬體故障的恢復。目前國內可以稱的上專業的機構屈指可數了,謹慎選擇。
H. linux 物理硬碟被用作LVM邏輯卷還能使用么 比如sdb sdc 用作邏輯卷 還能使用么
邏輯卷可以動態調整磁碟容量,從而提高磁碟管理的靈活性,本次主要講解的是邏輯卷(LVM)的創建,LVM邏輯卷的創建遵循一下思路:PV>VG>LV>格式化,掛載使用文件系統 依、首先我們准備兩塊SCSI硬碟,兩塊硬碟都通過fdisk 命令進行分區並全部使用其空間,操作如下: 貳、對sdb這塊硬碟進行如下操作,先分區,後轉換為物理卷 三、對sdc這塊硬碟進行如下操作,先分區,後轉換為物理卷 四、注意:可以使用:pvcreate /dev/sdb依 /dev/sdc依」命令一次性轉換貳個物理卷 5、使用vgcreate命令創建一個命名為luoji的卷組包括物理卷:/dec/sdb依、/dev/sdc依 陸、使用lvcreate命令創建邏輯卷mail,從卷組luoji上劃出陸GB空間,並使用mkfs命令創建ext三文件系統 漆、至此整個邏輯卷的創建就完成了,可以使用邏輯卷了 注意事項: 依、使用lvextend命令可以為邏輯卷進行擴容,完成後需要執行使resize貳fs命令更新系統識別的文件系統大小。 貳、不建議對邏輯卷進行縮減容量操作,因為這非常容易造成現有數據的損壞(通常不得不重新格式化文件系統),若確實需要減少邏輯卷容量時,可以使用lvrece命令,按「y」確認後可以減少磁碟容量
I. 關於linux的LVM分區,求解
看來你對lvm的基礎概念還不是很清楚。
首先,建立新分區物理卷(PV),然後將該分區類型設定為lvm,之後就可以在該PV上建立卷組(VG),然後在VG里劃分邏輯卷(LV),每個邏輯卷就相當於一個新的分區。需要調整分區(LV)大小時,如果是擴大LV,需要所屬VG還有剩餘未分配空間(Free PE),否則據需要先減小其它LV獲得可用PE。
再一點,LVM不是自動動態調整大小,而是需要用戶調整。
J. 如何安全的刪除Linux LVM中的PV物理卷(硬碟或分區)
情況介紹:
一、由於硬碟或者分區的操作方式其實都一樣,所以我這里就以分區為例。
二、/home分區2.6G,由如下pv組成:
/dev/sda5 100M
/dev/sda6 200M
/dev/sda7 300M
/dev/sda8 400M
/dev/sda9 500M
/dev/sda10 600M
/dev/sda11 500M
很碎對吧?^_^因為測試。
三、隨機寫了一堆文件進去,用量達到了2G,空閑500M
四、准備將sda6這個200M的PV卸掉(卸掉的容量必須小於空閑容量)
好了開始具體操作了。
卸載分區(縮小操作必須卸載才能進行):
umount /home
縮小分區:
e2fsck -f /dev/liuhg_disk/home
resize2fs /dev/liuhg_disk/home 2200M
首先將分區縮小到2200M這是為了給sda6騰出空間,sda6為200M,而我騰出了400M,因此應該是足夠的。
縮小邏輯卷:
lvrece -L 2200M /dev/liuhg_disk/home
分區縮小了用到的邏輯卷也要隨著縮小,並查看PV使用的狀態:
pvdisplay -m
顯示如下:
--- Physical volume ---
PV Name /dev/sda5
VG Name liuhg_disk
PV Size 103.26 MiB / not usable 3.26 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 25
Free PE 0
Allocated PE 25
PV UUID 5lnx52-b4jc-OOfZ-f2QA-ttdQ-DZeD-Ce3rb3
--- Physical Segments ---
Physical extent 0 to 24:
Logical volume /dev/liuhg_disk/home
Logical extents 0 to 24
--- Physical volume ---
PV Name /dev/sda6
VG Name liuhg_disk
PV Size 203.92 MiB / not usable 3.92 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 50
Free PE 0 <-----太悲劇了,sda6里寫滿了數據一點不剩
Allocated PE 50 <-----這50PE的數據要挪走才行,否則數據就丟了,並且存放的地方也必須是連續的至少50PE
PV UUID S2ane6-nlFG-uSNR-35NP-Yxa6-cXRb-r8E8mK
--- Physical Segments ---
Physical extent 0 to 49:
Logical volume /dev/liuhg_disk/home
Logical extents 25 to 74
--- Physical volume ---
PV Name /dev/sda7
VG Name liuhg_disk
PV Size 305.89 MiB / not usable 1.89 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 76
Free PE 76 <---這個分區有76個空餘,因此預計裝那50個是不會有問題的
Allocated PE 0
PV UUID 9CFnlx-CAEw-CSul-Rig9-FiCN-zK0a-oGmTEP
--- Physical Segments ---
Physical extent 0 to 75:
FREE
--- Physical volume ---
PV Name /dev/sda8
VG Name liuhg_disk
PV Size 407.87 MiB / not usable 3.87 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 101
Free PE 60
Allocated PE 41
PV UUID X0I8p0-x2xr-2xLG-QQD4-jbtS-3C4i-xPn4Bl
--- Physical Segments ---
Physical extent 0 to 40:
Logical volume /dev/liuhg_disk/home
Logical extents 471 to 511
Physical extent 41 to 100:
FREE
--- Physical volume ---
PV Name /dev/sda9
VG Name liuhg_disk
PV Size 509.84 MiB / not usable 1.84 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 127
Free PE 0
Allocated PE 127
PV UUID avJQaA-oMKt-NEoJ-ojBK-2Csc-1dca-1mh6Ue
--- Physical Segments ---
Physical extent 0 to 126:
Logical volume /dev/liuhg_disk/home
Logical extents 225 to 351
--- Physical volume ---
PV Name /dev/sda10
VG Name liuhg_disk
PV Size 603.98 MiB / not usable 3.98 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 150
Free PE 0
Allocated PE 150
PV UUID JlMIAF-A49n-M6HA-ZLXf-d8nS-pfZr-YeQsKT
--- Physical Segments ---
Physical extent 0 to 149:
Logical volume /dev/liuhg_disk/home
Logical extents 75 to 224
--- Physical volume ---
PV Name /dev/sda11
VG Name liuhg_disk
PV Size 478.47 MiB / not usable 2.47 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 119
Free PE 0
Allocated PE 119
PV UUID xnHJNA-tDVx-dryX-KM1x-g96Y-sptI-9iUOcU
--- Physical Segments ---
Physical extent 0 to 118:
Logical volume /dev/liuhg_disk/home
Logical extents 352 to 470
將sda6設置為離線狀態:
pvchange -xn /dev/sda6
使用pvdisplay -m
顯示如下:
……
--- Physical volume ---
PV Name /dev/sda6
VG Name liuhg_disk
PV Size 203.92 MiB / not usable 3.92 MiB
Allocatable NO <-----表示已經關閉了該PV
PE Size 4.00 MiB
Total PE 50
Free PE 0
Allocated PE 50
PV UUID S2ane6-nlFG-uSNR-35NP-Yxa6-cXRb-r8E8mK
……
將sda6的數據移走:
pvmove -i 1 /dev/sda6
-i 1是每1秒鍾報告一次數據遷移的進度。
[root@liuhg /]# pvmove -i 1 /dev/sda6
/dev/sda6: Moved: 38.0%
/dev/sda6: Moved: 84.0%
/dev/sda6: Moved: 100.0%
重新用pvdisplay -m
顯示如下:
……
--- Physical volume ---
PV Name /dev/sda6
VG Name liuhg_disk
PV Size 203.92 MiB / not usable 3.92 MiB
Allocatable NO
PE Size 4.00 MiB
Total PE 50
Free PE 50 <----顯示完全空閑和Total PE數一致
Allocated PE 0
PV UUID S2ane6-nlFG-uSNR-35NP-Yxa6-cXRb-r8E8mK
……
從卷組里把sda6刪除:
[root@liuhg /]# vgrece liuhg_disk /dev/sda6
Removed "/dev/sda6" from volume group "liuhg_disk"
pvdisplay -m再看看吧:
--- NEW Physical volume --- <-----還告訴你這是一個新的PV ^_^
PV Name /dev/sda6
VG Name <-----空了
PV Size 203.92 MiB
Allocatable NO
PE Size 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID S2ane6-nlFG-uSNR-35NP-Yxa6-cXRb-r8E8mK
到此vgdisplay -v能看到已經沒有了/dev/sda6了。重新掛載/home
[root@liuhg /]# mount /dev/liuhg_disk/home /home
[root@liuhg /]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 2.0G 546M 1.3G 30% /
tmpfs 504M 0 504M 0% /dev/shm
/dev/mapper/liuhg_disk-home
2.2G 1.8G 42M 98% /home
進去看看數據,一個都沒丟。