HigeMynx

New Member
Jul 2, 2023
2
0
1
Hallo zusammen,

ich habe Proxmox 8 neu isntalliert und alles aus dem Backup wiederhergestellt. Doch einzig und allein eine meiner VM's mmacht Probleme. Das Backup ist abgebrochen, und seitdem krieg ich das BAckup nicht wieder korrekt gestartet.

Hier das log vom Restore Job:
Code:
Header
Proxmox
Virtual Environment 8.0.3
Storage 'Proxmox_Backup' on node 'pve'
Search:
Logs
()
restore vma archive: zstd -q -d -c /mnt/Backup/Proxmox_Backup/dump/vzdump-qemu-102-2023_06_29-17_54_43.vma.zst | vma extract -v -r /var/tmp/vzdumptmp18252.fifo - /var/tmp/vzdumptmp18252
CFG: size: 579 name: qemu-server.conf
CFG: size: 179 name: qemu-server.fw
DEV: dev_id=1 size: 34359738368 devname: drive-scsi0
DEV: dev_id=2 size: 3221225472000 devname: drive-scsi1
CTIME: Thu Jun 29 17:54:44 2023
new volume ID is 'ZFS_Pool:vm-102-disk-0'
temporary volume 'ZFS_Pool:vm-102-disk-0' sucessfuly removed
no lock found trying to remove 'create'  lock
error before or during data restore, some or all disks were not completely restored. VM 102 state is NOT cleaned up.
TASK ERROR: command 'set -o pipefail && zstd -q -d -c /mnt/Backup/Proxmox_Backup/dump/vzdump-qemu-102-2023_06_29-17_54_43.vma.zst | vma extract -v -r /var/tmp/vzdumptmp18252.fifo - /var/tmp/vzdumptmp18252' failed: zfs error: cannot create 'ZFS_Pool/vm-102-disk-1': out of space

Was ich vor allem nicht verstehe ist wieso VM 102 state is NOT cleaned up. Weil ich vor jedem Wiederherstellungsversuch die alten daten aus der GUI gelöscht hatte.
Genausowenig verstehe ich die Meldung cannot create 'ZFS_Pool/vm-102-disk-1': out of space. Denn:
Das ZFS_Pool hat zurzeit 31.58% (1.79 TB of 5.67 TB) belegt. Die VM die ich versuche wiederherzustellen ist 1,08TB groß und es sind 3,88 TB frei da wo ich's hin Restoren will und auch noch gut 950GB frei auf der Platte wo Proxmox selbst drauf installiert ist, das Backup Volume ist auch erst bei 55.22% (1.63 TB of 2.95 TB) verstehe also beim besten willen nicht wo das Problem ist.

Ich weiß nicht ob das was mit dem Problem zu tun hat, aber ich hatte das ZFS_Pool vollständig in der GUI von Proxmox eingerichtet gehabt, und dennoch bekomme ich bei jedem Reboot von Proxmox eine Fehlermeldung vom zfs-import@ZFS_Pool.service:
Code:
Jul 02 15:11:56 pve systemd[1]: Starting zfs-import@ZFS_Pool.service - Import ZFS pool ZFS_Pool...
░░ Subject: A start job for unit zfs-import@ZFS_Pool.service has begun execution
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit zfs-import@ZFS_Pool.service has begun execution.
░░
░░ The job identifier is 163.
Jul 02 15:11:59 pve zpool[595]: cannot import 'ZFS_Pool': no such pool available
Jul 02 15:11:59 pve systemd[1]: zfs-import@ZFS_Pool.service: Main process exited, code=exited, status=1/FAILURE
░░ Subject: Unit process exited
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ An ExecStart= process belonging to unit zfs-import@ZFS_Pool.service has exited.
░░
░░ The process' exit code is 'exited' and its exit status is 1.
Jul 02 15:11:59 pve systemd[1]: zfs-import@ZFS_Pool.service: Failed with result 'exit-code'.
░░ Subject: Unit failed
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ The unit zfs-import@ZFS_Pool.service has entered the 'failed' state with result 'exit-code'.
Jul 02 15:11:59 pve systemd[1]: Failed to start zfs-import@ZFS_Pool.service - Import ZFS pool ZFS_Pool.
░░ Subject: A start job for unit zfs-import@ZFS_Pool.service has failed
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit zfs-import@ZFS_Pool.service has finished with a failure.
░░
░░ The job identifier is 163 and the job result is failed.
Jul 02 15:16:21 pve systemd[1]: Starting zfs-import@ZFS_Pool.service - Import ZFS pool ZFS_Pool...
░░ Subject: A start job for unit zfs-import@ZFS_Pool.service has begun execution
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit zfs-import@ZFS_Pool.service has begun execution.
░░
░░ The job identifier is 734.
Jul 02 15:16:23 pve zpool[20875]: cannot import 'ZFS_Pool': a pool with that name already exists
Jul 02 15:16:23 pve zpool[20875]: use the form 'zpool import <pool | id> <newpool>' to give it a new name
Jul 02 15:16:23 pve systemd[1]: zfs-import@ZFS_Pool.service: Main process exited, code=exited, status=1/FAILURE
░░ Subject: Unit process exited
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ An ExecStart= process belonging to unit zfs-import@ZFS_Pool.service has exited.
░░
░░ The process' exit code is 'exited' and its exit status is 1.
Jul 02 15:16:23 pve systemd[1]: zfs-import@ZFS_Pool.service: Failed with result 'exit-code'.
░░ Subject: Unit failed
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ The unit zfs-import@ZFS_Pool.service has entered the 'failed' state with result 'exit-code'.
Jul 02 15:16:23 pve systemd[1]: Failed to start zfs-import@ZFS_Pool.service - Import ZFS pool ZFS_Pool.
░░ Subject: A start job for unit zfs-import@ZFS_Pool.service has failed
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit zfs-import@ZFS_Pool.service has finished with a failure.
░░
░░ The job identifier is 734 and the job result is failed.
Da das Pool dann aber ganz normal in der GUI verwendet werden kann und auch schon VM's drauf laufen, gehe ich davon aus das Proxmox den Import selbst managed? Wen nja wüsste ich gerne wie und warum dieser andere Service dann überhaupt existert? Könnte das was mit meinem Problem der Wiederherstellung zu tun haben?

Vielen dank schonmal und mit freundlichen Grüßen
Hige Mynx
 
Last edited:
Ich habe mir mittlerweile auch mal die zpool history angesehen und zpool list und zfs list angesehen

Code:
root@pve:~# zpool history | grep -i "102"
2023-07-01.18:26:19 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-01.18:26:19 zfs create -V 3145728000k ZFS_Pool/vm-102-disk-1
2023-07-01.18:38:09 zfs create -V 33554432k ZFS_Pool/vm-102-disk-2
2023-07-01.18:38:09 zfs destroy -r ZFS_Pool/vm-102-disk-2
2023-07-01.18:39:08 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-01.18:39:10 zfs destroy -r ZFS_Pool/vm-102-disk-1
2023-07-02.13:51:27 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.13:51:27 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.13:53:04 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.13:53:59 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.13:55:44 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.13:57:51 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.14:01:05 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.14:04:37 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.14:32:24 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.14:32:24 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.14:32:55 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.14:32:55 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.14:37:37 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.14:37:37 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.14:38:04 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.14:38:04 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.14:44:28 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.14:44:28 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.14:45:03 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.14:45:03 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.15:02:44 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.15:02:45 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.15:04:38 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.15:04:38 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.15:15:10 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.15:15:10 zfs destroy -r ZFS_Pool/vm-102-disk-0
2023-07-02.15:33:40 zfs create -V 1024k ZFS_Pool/vm-105-disk-0
2023-07-02.22:28:02 zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
2023-07-02.22:28:02 zfs destroy -r ZFS_Pool/vm-102-disk-0

Habe versucht die pools selbstständig zu löschen:
Code:
root@pve:~# zfs destroy -r ZFS_Pool/vm-102-disk-2
cannot open 'ZFS_Pool/vm-102-disk-2': dataset does not exist
root@pve:~# zfs destroy -r ZFS_Pool/vm-102-disk-0
cannot open 'ZFS_Pool/vm-102-disk-0': dataset does not exist
root@pve:~# zfs destroy -r ZFS_Pool/vm-102-disk-1
cannot open 'ZFS_Pool/vm-102-disk-1': dataset does not exist

Und habe versucht sie selbstständig zu erstellen:
Code:
root@pve:~# zfs create -V 33554432k ZFS_Pool/vm-102-disk-0
root@pve:~# zfs create -V 3145728000k ZFS_Pool/vm-102-disk-1
cannot create 'ZFS_Pool/vm-102-disk-1': out of space
root@pve:~# zfs create -V 33554432k ZFS_Pool/vm-102-disk-2

Er behauptet immernoch es seit zu wenig speicher vorhanden. Laut meinen berechnungen müsste es aber so gerade eben passe.
Hier noch zfs list und zpool list
Code:
root@pve:~# zfs list
NAME                         USED  AVAIL     REFER  MOUNTPOINT
ZFS_Pool                    1.81T  3.34T      151K  /ZFS_Pool
ZFS_Pool/subvol-100-disk-0  38.3G   462G     38.3G  /ZFS_Pool/subvol-100-disk-0
ZFS_Pool/vm-101-disk-0      47.5G  3.37T     21.0G  -
ZFS_Pool/vm-102-disk-0      47.5G  3.39T     81.4K  -
ZFS_Pool/vm-102-disk-2      47.5G  3.39T     81.4K  -
ZFS_Pool/vm-103-disk-0      1.45T  4.64T      154G  -
ZFS_Pool/vm-104-disk-0      47.5G  3.37T     17.0G  -
ZFS_Pool/vm-105-disk-0      3.45M  3.34T     81.4K  -
ZFS_Pool/vm-105-disk-1      47.5G  3.38T     4.78G  -
ZFS_Pool/vm-106-disk-0      47.5G  3.37T     19.6G  -
ZFS_Pool/vm-107-disk-0      47.5G  3.37T     15.0G  -
root@pve:~# zpool list
NAME       SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
ZFS_Pool  7.27T   371G  6.90T        -         -     0%     4%  1.00x    ONLINE  -

3145728000k sind je nachdem wie ich rechne kibi zu Tibi kilo zu tera oder jegloche kombination daraus, die unvorteilhafteste ergibt: 3,221225472TB und 3.34T sind aus allen befehlen mindestens noch verfügbar.

Außerdem verstehe ich die diskrepanz zwischen den Free 6.90TB und den 3.34T (zpool list und zfs list) nicht.

Vor allem Proxmox 7 war genauso aufgesetzt, nur das zu dem Zeitpunkt noch die Proxmox installation selbst auf dem gleichen zfs pool lag wie die VM's und standard compression war an. Der neue aufbau hat nun Proxmox 8 und die selbe hardweare außer einer zusätzlichen usb ssd wo jetzt die proxmox installation drauf läuft. Das neu erstellte ZFS Pool ist aber diesmal ohne compression. Aber es wurde gleichzeitig auch speicher frei gegenüber der vorherigen konfiguration da ja die Proxmox installation selbst auch gut 4-5GB minim weg nimmt. Keine ahnung ob irgendetwas davon relevant ist ^^"

Eine Dumme idee die ich hatte, da ich weiß das nicht der gesammte speicher genutzt wurde, das ich die Disk im Backup shrinke genauso wie die VM Config im Backup, damit ich die VM aufg diesem wege wiederherstellen kann, aber das ist ja ein archive und das ist recht groß und ich weißt nicht wie ich da am besten vorgehe.

Ich vermute das hier währe die Backup File?
Code:
root@pve:~# ls -alFh /mnt/Backup/Proxmox_Backup/dump/ | grep -i "102" | grep -i "vzdump-qemu-102-2023_06_29-17_54_43.vma.zst"
-rw-r--r-- 1 root root 1011G Jun 29 20:02 vzdump-qemu-102-2023_06_29-17_54_43.vma.zst
-rw-r--r-- 1 root root    33 Jun 29 20:02 vzdump-qemu-102-2023_06_29-17_54_43.vma.zst.notes

Ich glaube ab hier warte ich erstmal auf Antworten traue mich da nicht so recht ran, und ich hoffe die zusätzlichen analysen sind hilfreich zu verstehen was hier vor sich geht ^^"
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!