[SOLVED] Festplatte gelöscht, VM wiederherstellen

Krulle

New Member
Mar 12, 2023
5
0
1
Hallo zusammen,
ich war bis vor 30 min praktisch fertig mit der Konfiguration meines Servers und wollte eigentlich ein Backup von praktisch allem machen. Weil das Backup inkl. externen Speichern zu groß für meine angeschlossene Festplatte gewesen wäre, habe ich es abgebrochen. Ich wollte dann die externe Festplatte mit "rm -r /*" löschen. War natürlich falsch. Dummer Fehler :oops:
Ich hatte auf der Hauptfestplatte praktisch nur Proxmox und die Container-Images drauf. Die VMs liegen auf einer SSD und die Daten auf 2 HDDs im Raid 1.
Bevor ich nun noch mehr Mist baue, wollte ich erstmal um Rat fragen, wie ich diese VMs am besten wieder in Promox einbinden kann, sollte dies irgendwie funktionieren.
Über Tipps und/oder Ideen würde ich mich freuen.
In den Containern steckt nun einiges an Arbeit und ich möchte sie ungern komplett neu aufstetzen.

Danke euch

Anbei noch ein kurzer Ausschnitt aus lsblk

sda und sdb sind die Daten im Raid
sdc enthält die Container.

Code:
NAME                              MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                                 8:0    0   3.6T  0 disk
├─sda1                              8:1    0   1.7T  0 part
└─sda2                              8:2    0   1.9T  0 part
sdb                                 8:16   0   3.6T  0 disk
├─sdb1                              8:17   0   1.7T  0 part
└─sdb2                              8:18   0   1.9T  0 part
sdc                                 8:32   0 476.9G  0 disk
├─storageIso-storageIso_tmeta     253:4    0   4.8G  0 lvm
│ └─storageIso-storageIso-tpool   253:7    0 467.3G  0 lvm
│   ├─storageIso-storageIso       253:8    0 467.3G  1 lvm
│   ├─storageIso-vm--100--disk--0 253:9    0    32G  0 lvm
│   └─storageIso-vm--101--disk--0 253:10   0    50G  0 lvm
└─storageIso-storageIso_tdata     253:5    0 467.3G  0 lvm
  └─storageIso-storageIso-tpool   253:7    0 467.3G  0 lvm
    ├─storageIso-storageIso       253:8    0 467.3G  1 lvm
    ├─storageIso-vm--100--disk--0 253:9    0    32G  0 lvm
    └─storageIso-vm--101--disk--0 253:10   0    50G  0 lvm
nvme0n1                           259:0    0 476.9G  0 disk
├─nvme0n1p1                       259:1    0  1007K  0 part
├─nvme0n1p2                       259:2    0   512M  0 part /boot/efi
└─nvme0n1p3                       259:3    0 476.4G  0 part
  ├─pve-swap                      253:0    0     8G  0 lvm  [SWAP]
  ├─pve-root                      253:1    0    96G  0 lvm  /
  ├─pve-data_tmeta                253:2    0   3.6G  0 lvm
  │ └─pve-data                    253:6    0 349.3G  0 lvm
  └─pve-data_tdata                253:3    0 349.3G  0 lvm
    └─pve-data                    253:6    0 349.3G  0 lvm

EDIT:
Die beiden Raids konnte ich auch wiederherstellen. Sie sind vorhanden und funktionieren.
Nun fehlen noch die VMs.
 
Last edited:
Hi,
als erstes versuchen die Storage-Konfiugration wiederherzustellen, sodass Proxmox VE nachher die virtuellen Disken finden kann. Gibt es noch irgendwelche Konfigurationen in /etc/pve/qemu-server und /etc/pve/lxc? Falls es keine Bacukps von den Konfigurationen gibt, versuchen diese so gut wie möglich aus dem Gedächtnis zu rekonstruieren. Bei VMs einfach VMs ohne Disken mit den gleichen IDs erstellen, dann sollte qm rescan --vmid <ID> die Disken als unused hinzufügen und dann können sie angehängt werden. Bei Containern geht das Erstellen leider nicht ohne Disk, da würde ich einen neuen mit rootfs erstellen und dann manuell den Verweis vom rootfs auf die richtige Disk ändern (und die andere Disk löschen).
 
Hallo Fiona,
vielen Dank für deine Antwort. Das hat super funktioniert und die VM100 (die wichtigste!) läuft wieder.