Hallo zusammen,
beim neu installieren eines hosts ist mir ein Fehler passiert, ich hatte hier das falsche Ziellaufwerk genommen und aus dem SVC bereitgestellte multipath Platte mit formatiert.
Glücklicherweise scheint es die "Metainfos" getroffen zu haben, die VM läuft noch auf dem Datastore da Partition wohl in Zugriff nicht schreibbar war.
Jetzt muss die VM irgendwie runter vom Datastore, allerdings geht weder eine Migration noch ein Backup/Snapshot sonstiges.
es geht hier um SVC01
Die
Das ist aktueller Stand den ich aus mehreren Foren vorhandenen Beiträgen an Informationen rausholen konnte, weiter komme ich nicht.
Den Host/services habe ich bisher nicht neugestartet, will ich auch nicht tun, die Sorge dass die VM abraucht ist zu hoch.
Hat wer eine Idee?
beim neu installieren eines hosts ist mir ein Fehler passiert, ich hatte hier das falsche Ziellaufwerk genommen und aus dem SVC bereitgestellte multipath Platte mit formatiert.
Glücklicherweise scheint es die "Metainfos" getroffen zu haben, die VM läuft noch auf dem Datastore da Partition wohl in Zugriff nicht schreibbar war.
Jetzt muss die VM irgendwie runter vom Datastore, allerdings geht weder eine Migration noch ein Backup/Snapshot sonstiges.
Code:
root@PRZPMOX02:~# vzdump 100 --dumpdir /mnt/pve/CRZFILE02/dump/ --mode snapshot
INFO: starting new backup job: vzdump 100 --dumpdir /mnt/pve/CRZFILE02/dump/ --mode snapshot
INFO: Starting Backup of VM 100 (qemu)
INFO: Backup started at 2023-10-18 10:42:32
INFO: status = running
INFO: VM Name: ORZTPC01
INFO: include disk 'virtio0' 'SVC_01:vm-100-disk-0' 50G
Volume group "SVC_01" not found
ERROR: Backup of VM 100 failed - can't activate LV '/dev/SVC_01/vm-100-disk-0': Cannot process volume group SVC_01
INFO: Failed at 2023-10-18 10:42:32
INFO: Backup job finished with errors
job errors
Code:
root@PRZPMOX02:~# pvscan
No matching physical volumes found
root@PRZPMOX02:~# vgscan
root@PRZPMOX02:~# lvscan
root@PRZPMOX02:~#
es geht hier um SVC01
Die
Code:
root@PRZPMOX02:/# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 136,7G 0 disk
├─sda1 8:1 0 135,7G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 976M 0 part [SWAP]
sdb 8:16 0 1,5T 0 disk
└─SVC_01 253:0 0 1,5T 0 mpath
├─SVC_01-vm--101--disk--0 253:1 0 120G 0 lvm
├─SVC_01-vm--101--disk--1 253:2 0 650G 0 lvm
└─SVC_01-vm--100--disk--0 253:3 0 50G 0 lvm
sdc 8:32 0 1,5T 0 disk
└─SVC_01 253:0 0 1,5T 0 mpath
├─SVC_01-vm--101--disk--0 253:1 0 120G 0 lvm
├─SVC_01-vm--101--disk--1 253:2 0 650G 0 lvm
└─SVC_01-vm--100--disk--0 253:3 0 50G 0 lvm
sdd 8:48 0 1,5T 0 disk
└─SVC_01 253:0 0 1,5T 0 mpath
├─SVC_01-vm--101--disk--0 253:1 0 120G 0 lvm
├─SVC_01-vm--101--disk--1 253:2 0 650G 0 lvm
└─SVC_01-vm--100--disk--0 253:3 0 50G 0 lvm
sde 8:64 0 1,5T 0 disk
└─SVC_01 253:0 0 1,5T 0 mpath
├─SVC_01-vm--101--disk--0 253:1 0 120G 0 lvm
├─SVC_01-vm--101--disk--1 253:2 0 650G 0 lvm
└─SVC_01-vm--100--disk--0 253:3 0 50G 0 lvm
root@PRZPMOX02:/# pvscan
No matching physical volumes found
root@PRZPMOX02:/# vgscan
root@PRZPMOX02:/#
/etc/lvm/archive/SVC_01_00023-2030211196.vg
SVC_01 {
id = "qrPVPv-Fo3H-6N48-xHr1-kiAL-wgb6-M5fhEb"
seqno = 18
format = "lvm2" # informational
status = ["RESIZEABLE", "READ", "WRITE"]
flags = []
extent_size = 8192 # 4 Megabytes
max_lv = 0
max_pv = 0
metadata_copies = 0 physical_volumes { pv0 {
id = "ehTwdX-019v-S1aa-tjp7-7bKM-QvVS-S62CeG"
device = "/dev/mapper/SVC_01" # Hint only status = ["ALLOCATABLE"]
flags = []
dev_size = 3196057600 # 1.48828 Terabytes
pe_start = 2048
pe_count = 390143 # 1.48828 Terabytes
}
}
----
root@PRZPMOX02:/# vgcfgrestore --test -f /etc/lvm/backup/SVC_01 SVC_01
TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated.
Volume group SVC_01 has active volume: .
Volume group SVC_01 has active volume: vm-100-disk-0.
Volume group SVC_01 has active volume: vm-101-disk-0.
Volume group SVC_01 has active volume: vm-101-disk-1.
WARNING: Found 4 active volume(s) in volume group "SVC_01".
Restoring VG with active LVs, may cause mismatch with its metadata.
Do you really want to proceed with restore of volume group "SVC_01", while 4 volume(s) are active? [y/n]: y
WARNING: Couldn't find device with uuid ehTwdX-019v-S1aa-tjp7-7bKM-QvVS-S62CeG.
Cannot restore Volume Group SVC_01 with 1 PVs marked as missing.
Restore failed.
root@PRZPMOX02:/# lvs -a -o +devices
root@PRZPMOX02:/#
Das ist aktueller Stand den ich aus mehreren Foren vorhandenen Beiträgen an Informationen rausholen konnte, weiter komme ich nicht.
Den Host/services habe ich bisher nicht neugestartet, will ich auch nicht tun, die Sorge dass die VM abraucht ist zu hoch.
Hat wer eine Idee?