教你在 LVM 中恢復(fù)已刪除的邏輯卷和物理卷
本文介紹分兩部分,第一部分介紹如何恢復(fù)已刪除的邏輯卷,如要執(zhí)行恢復(fù)將使用vgcfgrestore命令。第二部分詳細(xì)介紹如何從已刪除的物理卷或故障磁盤場景中恢復(fù)。
在LVM中恢復(fù)已刪除的邏輯卷
在執(zhí)行任何邏輯卷管理相關(guān)任務(wù)時,如果意外的刪除了邏輯卷,則可以使用它的數(shù)據(jù)還原功能來恢復(fù)邏輯卷。在下面的步驟中,將演示如何通過刪除卷組中的任何一個邏輯卷,并恢復(fù)已刪除的邏輯卷。
系統(tǒng)環(huán)境
Centos8
現(xiàn)有的文件系統(tǒng)
在開始本文之前已經(jīng)創(chuàng)建了一個邏輯卷,里面并存放了一些文件。
- [root@localhost ~]# pvs
- PV VG Fmt Attr PSize PFree
- /dev/nvme0n1p2 cl lvm2 a-- <19.00g <2.00g
- /dev/sda vg_data lvm2 a-- <20.00g 0
- /dev/sdb vg_data lvm2 a-- <20.00g 0
- [root@localhost ~]# vgs
- VG #PV #LV #SN Attr VSize VFree
- cl 1 2 0 wz--n- <19.00g <2.00g
- vg_data 2 1 0 wz--n- 39.99g 0
- [root@localhost ~]# lvs
- LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
- root cl -wi-ao---- 15.00g
- swap cl -wi-ao---- 2.00g
- lv_data vg_data -wi-ao---- 39.99g
- [root@localhost ~]# df -h /data
- Filesystem Size Used Avail Use% Mounted on
- /dev/mapper/vg_data-lv_data 40G 318M 40G 1% /data
/data目錄中的文件如下:
意外刪除邏輯卷
為了演示起見,請刪除邏輯卷lv_data。
- [root@localhost ~]# umount /data
- [root@localhost ~]# lvremove -v /dev/vg_data/lv_data
- Do you really want to remove active logical volume vg_data/lv_data? [y/n]: y
- Accepted input: [y]
- Removing vg_data-lv_data (253:2)
- Archiving volume group "vg_data" metadata (seqno 2).
- Releasing logical volume "lv_data"
- Creating volume group backup "/etc/lvm/backup/vg_data" (seqno 3).
- Logical volume "lv_data" successfully removed
使用lvs命令打印并確認(rèn)我們已經(jīng)刪除了邏輯卷lv_data:
由于lv_data卷已刪除,可以看到卷組vg_data的剩余空間是40G。
- [root@localhost ~]# vgs
- VG #PV #LV #SN Attr VSize VFree
- cl 1 2 0 wz--n- <19.00g <2.00g
- vg_data 2 0 0 wz--n- 39.99g 39.99g
開始恢復(fù)邏輯卷
現(xiàn)在,讓我們看看如何還原已刪除的邏輯卷。每當(dāng)我們執(zhí)行與LVM相關(guān)的任何任務(wù)(時,所有內(nèi)容都將被記錄在/etc/lvm/archive.下。并使用vgcfgbackup命令備份卷組配置并將其存儲在/etc/lvm/backup下。
- [root@localhost ~]# ll /etc/lvm/backup/
- total 8
- -rw-------. 1 root root 1746 Mar 9 16:27 cl
- -rw-------. 1 root root 1147 Apr 8 10:20 vg_data
- [root@localhost ~]# ll /etc/lvm/archive/
- total 24
- -rw-------. 1 root root 1740 Dec 29 2019 cl_00000-1531402016.vg
- -rw-------. 1 root root 1740 Mar 9 16:27 cl_00001-790744555.vg
- -rw-------. 1 root root 1747 Mar 9 16:27 cl_00002-1369752011.vg
- -rw-------. 1 root root 1150 Apr 8 09:52 vg_data_00000-919482485.vg
- -rw-------. 1 root root 1155 Apr 8 09:54 vg_data_00001-1289102393.vg
- -rw-------. 1 root root 1763 Apr 8 10:20 vg_data_00002-1932879749.vg
在上面刪除邏輯卷的步驟中,使用lvremove -v /dev/vg_data/lv_data 命令時,可以看到輸出的詳細(xì)信息,有archiving和create backup。
下面列出并檢查有多少個卷組元數(shù)據(jù)備份可用:
- [root@localhost ~]# vgcfgrestore --list vg_data
- File: /etc/lvm/archive/vg_data_00000-919482485.vg
- Couldn't find device with uuid l5rSrt-SRfc-KQNw-Tm29-gx4D-ihBw-Xzum3L.
- Couldn't find device with uuid v6wYGZ-0dGA-8ecB-kec8-r2zv-gCJi-gulSAD.
- VG name: vg_data
- Description: Created *before* executing 'vgcreate vg_data /dev/sda /dev/sdb'
- Backup Time: Thu Apr 8 09:52:49 2021
- File: /etc/lvm/archive/vg_data_00001-1289102393.vg
- VG name: vg_data
- Description: Created *before* executing 'lvcreate -l 100%FREE -n lv_data vg_data'
- Backup Time: Thu Apr 8 09:54:45 2021
- File: /etc/lvm/archive/vg_data_00002-1932879749.vg
- VG name: vg_data
- Description: Created *before* executing 'lvremove -v /dev/vg_data/lv_data'
- Backup Time: Thu Apr 8 10:20:53 2021
- File: /etc/lvm/backup/vg_data
- VG name: vg_data
- Description: Created *after* executing 'lvremove -v /dev/vg_data/lv_data'
- Backup Time: Thu Apr 8 10:20:53 2021
--list選項列出與VG有關(guān)的元數(shù)據(jù)備份和存檔文件。
我們要恢復(fù)的事刪除卷組之前的存檔,所以選擇下面圈出來的/etc/lvm/archive/vg_data_00002-1932879749.vg文件。
在恢復(fù)之前,使用--test選項來試運行一下:
- [root@localhost ~]# vgcfgrestore vg_data -f /etc/lvm/archive/vg_data_00002-1932879749.vg --test
- TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated.
- Restored volume group vg_data.
試運行沒問題之后,去掉--test選項,然后再執(zhí)行一次:
- [root@localhost ~]# vgcfgrestore vg_data -f /etc/lvm/archive/vg_data_00002-1932879749.vg
- Restored volume group vg_data.
可看到成功恢復(fù)卷組vg_data。
-f選項讀取由vgcfgbackup創(chuàng)建的元數(shù)據(jù)文件。
使用lvs查看lv_data邏輯卷是否已恢復(fù),并且使用lvscan查看邏輯卷是否激活:
- [root@localhost ~]# lvs
- LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
- root cl -wi-ao---- 15.00g
- swap cl -wi-ao---- 2.00g
- lv_data vg_data -wi------- 39.99g
- [root@localhost ~]# lvscan
- ACTIVE '/dev/cl/swap' [2.00 GiB] inherit
- ACTIVE '/dev/cl/root' [15.00 GiB] inherit
- inactive '/dev/vg_data/lv_data' [39.99 GiB] inherit
可看到lv_data已恢復(fù),但是狀態(tài)是未激活。下一步就激活邏輯卷。
激活邏輯卷
使用lvchange命令將邏輯卷激活:
- [root@localhost ~]# lvchange -ay /dev/vg_data/lv_data
- [root@localhost ~]# lvscan
- ACTIVE '/dev/cl/swap' [2.00 GiB] inherit
- ACTIVE '/dev/cl/root' [15.00 GiB] inherit
- ACTIVE '/dev/vg_data/lv_data' [39.99 GiB] inherit
- [root@localhost ~]# lvs
- LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
- root cl -wi-ao---- 15.00g
- swap cl -wi-ao---- 2.00g
- lv_data vg_data -wi-a----- 39.99g
上圖可以看到"/dev/vg_data/lv_data"邏輯卷已激活。
掛載并檢驗
掛載文件系統(tǒng):
- [root@localhost ~]# mount /dev/vg_data/lv_data /data/
- [root@localhost ~]# df -h /data
- Filesystem Size Used Avail Use% Mounted on
- /dev/mapper/vg_data-lv_data 40G 318M 40G 1% /data
可以看到文件都已經(jīng)存在了。
以上部分已經(jīng)成功地從卷組的元數(shù)據(jù)中恢復(fù)被刪除的邏輯卷。
在LVM中恢復(fù)已刪除的物理卷
系統(tǒng)環(huán)境
Centos8
現(xiàn)有的文件系統(tǒng)
下面使用了/dev/sd[a-c]三塊磁盤,將他們劃入一個卷組,創(chuàng)建兩個邏輯卷:
- # Create pv
- [root@localhost ~]# pvcreate /dev/sda
- [root@localhost ~]# pvcreate /dev/sdb
- [root@localhost ~]# pvcreate /dev/sdc
- # Create VG
- [root@localhost ~]# vgcreate vg_data /dev/sd[a-c]
- # Create LV
- [root@localhost ~]# lvcreate -L 25G -n lv_data vg_data
- [root@localhost ~]# lvcreate -L 25G -n lv_log vg_data
下面列出邏輯卷的分配使用信息:
- [root@localhost ~]# pvs
- PV VG Fmt Attr PSize PFree
- /dev/nvme0n1p2 cl lvm2 a-- <19.00g <2.00g
- /dev/sda vg_data lvm2 a-- <20.00g 0
- /dev/sdb vg_data lvm2 a-- <20.00g <9.99g
- /dev/sdc vg_data lvm2 a-- <20.00g 0
- [root@localhost ~]# vgs
- VG #PV #LV #SN Attr VSize VFree
- cl 1 2 0 wz--n- <19.00g <2.00g
- vg_data 3 2 0 wz--n- <59.99g <9.99g
- [root@localhost ~]# lvs -a -o +devices
- LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert Devices
- root cl -wi-ao---- 15.00g /dev/nvme0n1p2(512)
- swap cl -wi-ao---- 2.00g /dev/nvme0n1p2(0)
- lv_data vg_data -wi-a----- 25.00g /dev/sda(0)
- lv_data vg_data -wi-a----- 25.00g /dev/sdb(0)
- lv_log vg_data -wi-a----- 25.00g /dev/sdc(0)
- lv_log vg_data -wi-a----- 25.00g
在根目錄創(chuàng)建兩個文件夾/data和/log,格式化邏輯卷,掛載邏輯卷,并存放一些數(shù)據(jù):
- [root@localhost ~]# mkdir /data /logs
- [root@localhost ~]# mkfs.xfs /dev/vg_data/lv_data
- [root@localhost ~]# mkfs.xfs /dev/vg_data/lv_log
- [root@localhost ~]# mount /dev/vg_data/lv_data /data
- [root@localhost ~]# mount /dev/vg_data/lv_log /data
- [root@localhost ~]# df -h
- Filesystem Size Used Avail Use% Mounted on
- devtmpfs 880M 0 880M 0% /dev
- tmpfs 897M 0 897M 0% /dev/shm
- tmpfs 897M 8.7M 888M 1% /run
- tmpfs 897M 0 897M 0% /sys/fs/cgroup
- /dev/mapper/cl-root 15G 1.9G 14G 13% /
- /dev/nvme0n1p1 976M 183M 726M 21% /boot
- tmpfs 180M 0 180M 0% /run/user/0
- /dev/mapper/vg_data-lv_log 25G 211M 25G 1% /data
- [root@localhost ~]# touch /data/file{1..10}.txt
- [root@localhost ~]# touch /logs/text{1..10}.log
將磁盤設(shè)置為故障或刪除磁盤
這兩種情況是意外刪除的物理卷或發(fā)生故障的磁盤,通過運行pvremove命令刪除了任何一個物理卷,或者從虛擬機(jī)中移除某一塊物理磁盤。
下面從虛擬機(jī)中移除一塊物理磁盤:
重啟系統(tǒng)之后,發(fā)現(xiàn)不能掛載lv_data和lv_log邏輯卷了,/dev目錄中找不到vg_data卷組。
如果該邏輯卷設(shè)置為開機(jī)自動啟動了,磁盤發(fā)生故障后,由于兩個邏輯卷無法掛載文件系統(tǒng),因此重新引導(dǎo)不能進(jìn)入系統(tǒng)。只能通過進(jìn)入單用戶模式,并注釋fstab配置文件里面和該邏輯卷相關(guān)的條目。
添加新物理硬盤
下面從虛擬機(jī)中添加一個新的物理磁盤,新添加的磁盤會變成/dev/sdc
- [root@localhost ~]# lsblk -S
- NAME HCTL TYPE VENDOR MODEL REV TRAN
- sda 6:0:0:0 disk VMware, VMware Virtual S 1.0 spi
- sdb 6:0:2:0 disk VMware, VMware Virtual S 1.0 spi
- sdc 6:0:3:0 disk VMware, VMware Virtual S 1.0 spi
- sr0 3:0:0:0 rom NECVMWar VMware SATA CD01 1.00 sata
恢復(fù)已刪除物理卷的元數(shù)據(jù)
現(xiàn)在讓我們開始為已刪除的物理卷恢復(fù)元數(shù)據(jù)。當(dāng)使用pvs,vgs,lvs命令時,它將警告缺少xxxxx UUID的設(shè)備之一。
只需復(fù)制UUID并使用grep查看存檔和備份。在進(jìn)行重新引導(dǎo)之前,報告的UUID指的是/dev/sdb設(shè)備。
- [root@localhost ~]# cat /etc/lvm/archive/vg_data_00002-1587647360.vg |grep -B 2 -A 9 "v6wYGZ-0dGA-8ecB-kec8-r2zv-gCJi-gulSAD"
- pv1 {
- id = "v6wYGZ-0dGA-8ecB-kec8-r2zv-gCJi-gulSAD"
- device = "/dev/sdb" # Hint only
- status = ["ALLOCATABLE"]
- flags = []
- dev_size = 41943040 # 20 Gigabytes
- pe_start = 2048
- pe_count = 5119 # 19.9961 Gigabytes
- }
- [root@localhost ~]# cat /etc/lvm/backup/vg_data |grep -B 2 -A 9 "v6wYGZ-0dGA-8ecB-kec8-r2zv-gCJi-gulSAD"
- pv1 {
- id = "v6wYGZ-0dGA-8ecB-kec8-r2zv-gCJi-gulSAD"
- device = "/dev/sdb" # Hint only
- status = ["ALLOCATABLE"]
- flags = []
- dev_size = 41943040 # 20 Gigabytes
- pe_start = 2048
- pe_count = 5119 # 19.9961 Gigabytes
- }
讓我們先使用pvcreate --test進(jìn)行試運行:
- [root@localhost ~]# pvcreate --test --uuid "v6wYGZ-0dGA-8ecB-kec8-r2zv-gCJi-gulSAD" --restorefile /etc/lvm/archive/vg_data_00002-1587647360.vg /dev/sdc
- TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated.
- Couldn't find device with uuid l5rSrt-SRfc-KQNw-Tm29-gx4D-ihBw-Xzum3L.
- Couldn't find device with uuid v6wYGZ-0dGA-8ecB-kec8-r2zv-gCJi-gulSAD.
- Couldn't find device with uuid UYyDyH-vc6D-XbQ7-ga1X-DKeM-ObLe-tdBLxR.
- Physical volume "/dev/sdc" successfully created.
--test 試運行
--uuid 用于指定新創(chuàng)建的物理卷的uuid值。如果沒有此選項,將生成隨機(jī)UUID。在本實驗中指定的uuid值是之前刪除物理卷的uuid值。
--restorefile 讀取由vgcfgbackup生成的存檔文件
去掉--test選項,正式創(chuàng)建物理卷:
- [root@localhost ~]# pvcreate --uuid "v6wYGZ-0dGA-8ecB-kec8-r2zv-gCJi-gulSAD" --restorefile /etc/lvm/archive/vg_data_00002-1587647360.vg /dev/sdc
- Couldn't find device with uuid l5rSrt-SRfc-KQNw-Tm29-gx4D-ihBw-Xzum3L.
- Couldn't find device with uuid v6wYGZ-0dGA-8ecB-kec8-r2zv-gCJi-gulSAD.
- Couldn't find device with uuid UYyDyH-vc6D-XbQ7-ga1X-DKeM-ObLe-tdBLxR.
- Physical volume "/dev/sdc" successfully created.
- [root@localhost ~]# pvs
- PV VG Fmt Attr PSize PFree
- /dev/nvme0n1p2 cl lvm2 a-- <19.00g <2.00g
- /dev/sda vg_data lvm2 a-- <20.00g 0
- /dev/sdb vg_data lvm2 a-- <20.00g 0
- /dev/sdc vg_data lvm2 a-- <20.00g <9.99g
- [root@localhost ~]# vgs
- VG #PV #LV #SN Attr VSize VFree
- cl 1 2 0 wz--n- <19.00g <2.00g
- vg_data 3 2 0 wz--n- <59.99g <9.99g
- [root@localhost ~]# lvs -o +devices
- LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert Devices
- root cl -wi-ao---- 15.00g /dev/nvme0n1p2(512)
- swap cl -wi-ao---- 2.00g /dev/nvme0n1p2(0)
- lv_data vg_data -wi-a----- 25.00g /dev/sda(0)
- lv_data vg_data -wi-a----- 25.00g /dev/sdc(0)
- lv_log vg_data -wi-a----- 25.00g /dev/sdb(0)
- lv_log vg_data -wi-a----- 25.00g
恢復(fù)卷組
然后使用lvm的備份還原卷組。首先加入--test試運行一下:
- [root@localhost ~]# vgcfgrestore --test -f /etc/lvm/backup/vg_data vg_data
- TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated.
- Volume group vg_data has active volume: lv_log.
- Volume group vg_data has active volume: lv_data.
- WARNING: Found 2 active volume(s) in volume group "vg_data".
- Restoring VG with active LVs, may cause mismatch with its metadata.
- Do you really want to proceed with restore of volume group "vg_data", while 2 volume(s) are active? [y/n]: y
- Restored volume group vg_data.
下面正式運行一下,去掉--test選項:
- [root@localhost ~]# vgcfgrestore -f /etc/lvm/backup/vg_data vg_data
- Volume group vg_data has active volume: lv_log.
- Volume group vg_data has active volume: lv_data.
- WARNING: Found 2 active volume(s) in volume group "vg_data".
- Restoring VG with active LVs, may cause mismatch with its metadata.
- Do you really want to proceed with restore of volume group "vg_data", while 2 volume(s) are active? [y/n]: y
- Restored volume group vg_data.
如果卷組和邏輯卷未激活,請使用下面命令激活:
- # 掃描卷組
- [root@localhost ~]# vgscan
- Reading all physical volumes. This may take a while...
- Found volume group "cl" using metadata type lvm2
- Found volume group "vg_data" using metadata type lvm2
- # 激活卷組vg_data
- [root@localhost ~]# vgchange -ay vg_data
- 2 logical volume(s) in volume group "vg_data" now active
- # 掃描邏輯卷
- [root@localhost ~]# lvscan
- ACTIVE '/dev/cl/swap' [2.00 GiB] inherit
- ACTIVE '/dev/cl/root' [15.00 GiB] inherit
- ACTIVE '/dev/vg_data/lv_data' [25.00 GiB] inherit
- ACTIVE '/dev/vg_data/lv_log' [25.00 GiB] inherit
在lvm中,需要執(zhí)行一些步驟來恢復(fù)已刪除的物理卷,方法是添加新磁盤并用現(xiàn)有UUID指向新磁盤。
本文轉(zhuǎn)載自微信公眾號「Linux就該這么學(xué)」,可以通過以下二維碼關(guān)注。轉(zhuǎn)載本文請聯(lián)系Linux就該這么學(xué)公眾號。