[SOLVED] Wiederherstellung funktioniert nicht

MisterMue

New Member
Aug 7, 2023
8
0
1
Hallo,

bekomme meine Nextcloud nicht wiederhergestellt. Ich vermute das der Speicherplatz nicht so genutzt wird, wie ursprünglich eingerichtet.

Die Nextclloud liegt in Ihrer kleinen VM und die Daten auf einer separaten Festplatte.
Der Hostspeicher ist zu klein um alle daten aufzunehmen.

Ich vermute nun, das er das gesamte Backup auf die zu kleine Hostfestplatte schreiben will?!

Was kann ich nun tun um alles wieder ans laufen zu bekommen?

restore vma archive: zstd -q -d -c /mnt/pve/SynologyDS414s/dump/vzdump-qemu-100-2023_08_25-00_00_08.vma.zst | vma extract -v -r /var/tmp/vzdumptmp294512.fifo - /var/tmp/vzdumptmp294512 CFG: size: 641 name: qemu-server.conf DEV: dev_id=1 size: 8589934592 devname: drive-scsi0 DEV: dev_id=2 size: 1000204886016 devname: drive-scsi2 CTIME: Fri Aug 25 00:00:15 2023 Logical volume "vm-100-disk-0" created. new volume ID is 'local-lvm:vm-100-disk-0' Rounding up size to full physical extent <931.52 GiB WARNING: You have not turned on protection against thin pools running out of space. WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full. Logical volume "vm-100-disk-1" created. WARNING: Sum of all thin volume sizes (<963.82 GiB) exceeds the size of thin pool pve/data and the size of whole volume group (237.47 GiB). new volume ID is 'local-lvm:vm-100-disk-1' map 'drive-scsi0' to '/dev/pve/vm-100-disk-0' (write zeros = 0) map 'drive-scsi2' to '/dev/pve/vm-100-disk-1' (write zeros = 0) progress 1% (read 10087956480 bytes, duration 171 sec) ... ... progress 100% (read 1008794796032 bytes, duration 3957 sec) vma: restore failed - vma blk_flush drive-scsi0 failed /bin/bash: line 1: 294541 Done zstd -q -d -c /mnt/pve/SynologyDS414s/dump/vzdump-qemu-100-2023_08_25-00_00_08.vma.zst 294542 Trace/breakpoint trap | vma extract -v -r /var/tmp/vzdumptmp294512.fifo - /var/tmp/vzdumptmp294512 Logical volume "vm-100-disk-1" successfully removed. temporary volume 'local-lvm:vm-100-disk-1' sucessfuly removed Logical volume "vm-100-disk-0" successfully removed. temporary volume 'local-lvm:vm-100-disk-0' sucessfuly removed no lock found trying to remove 'create' lock error before or during data restore, some or all disks were not completely restored. VM 100 state is NOT cleaned up. TASK ERROR: command 'set -o pipefail && zstd -q -d -c /mnt/pve/SynologyDS414s/dump/vzdump-qemu-100-2023_08_25-00_00_08.vma.zst | vma extract -v -r /var/tmp/vzdumptmp294512.fifo - /var/tmp/vzdumptmp294512' failed: exit code 133
 
Last edited:
Einen weiteren Datenopool über neue Festplatten einrichten, dann einen Bereich als Backupbereich anlegen und dem Proxmox zuweisen. z.B. /<pool>/pve-backup/
Dann alle Dateien aus dem alten Backupverzeichnis kopieren: $ cp -a /<src>/backup/ /<pool>/pve-backup/
Wenn alles kopiert wurde und unter Proxmox angezeigt wird, kann man /<src>/backup/ löschen und in Proxmox entfernen.
Dann noch den Backupprozess anpassen und das neue Zielverzeichnis /<pool>/pve-backup/ per nano eintragen.
Fertig. $ fstrim -av nicht vergessen.
 
Mal probieren die VM auf den großen Storage wiederherzustellen.
Wenn das erfolgreich war, kann, wenn gewünscht, die System-vDisk wieder auf: local-lvm verschoben werden.
 
  • Like
Reactions: MisterMue
Mal probieren die VM auf den großen Storage wiederherzustellen.
Wenn das erfolgreich war, kann, wenn gewünscht, die System-vDisk wieder auf: local-lvm verschoben werden.

Dein Post hat mich zum denken angeregt und letztlich auch mein Problem gelöst. Ich habe die VM auf dem NAS wiederhergestellt. habe dann eine Kleinere disk auf dem Hostspeicher erstellt und habe dann die daten umziehen lassen und neu verknüpft. Hatte danach noch viele weitere kleine Probleme, die ich dann aber auch gelöst bekommen habe.

Danke !
 
Einen weiteren Datenopool über neue Festplatten einrichten, dann einen Bereich als Backupbereich anlegen und dem Proxmox zuweisen. z.B. /<pool>/pve-backup/
Dann alle Dateien aus dem alten Backupverzeichnis kopieren: $ cp -a /<src>/backup/ /<pool>/pve-backup/
Wenn alles kopiert wurde und unter Proxmox angezeigt wird, kann man /<src>/backup/ löschen und in Proxmox entfernen.
Dann noch den Backupprozess anpassen und das neue Zielverzeichnis /<pool>/pve-backup/ per nano eintragen.
Fertig. $ fstrim -av nicht vergessen.

tut mir leid, habe deinen Post null verstanden, hatte es dann aber dennoch gelöst. Danke trotzdem.
 
habe dann eine Kleinere disk auf dem Hostspeicher erstellt und habe dann die daten umziehen lassen und neu verknüpft.

Du kannst eine vDisk auch ganz einfach per:
Deine VM -> "Hardware" -> Gewünschte vDisk ("Hard Disk") auswählen -> Oben "Disk Action"-Dropdown -> "Move Storage"
auf einen anderen Storage verschieben.

Gedanke ist, die VM mit all seinen vDisks auf einem Storage wiederherzustellen, der ausreichend Speicherplatz für alle vDisks bietet und danach dann mit der obengenannten Methode die gewünschte(n) (kleinere(n)) vDisk(s) auf den kleineren Storage zu verschieben.
 
  • Like
Reactions: MisterMue

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!