Problem mit Backup eines Containers

corin.corvus

Active Member
Apr 8, 2020
132
13
38
37
Moin,

ich habe seit ein paar Wochen immer sporadisch, jetzt dauerhaft, Probleme mit dem Backup eines einzigen Containers.

Eigenschaften des Containers:
Debian Container Template
2 Cores
256MB Ram
1 Mount Point mit 8 GB Speicher
2 Netzwerkadapter

1651924974928.png
1651924986384.png

Aufgabe: Turn Server (Coturn)

Das hier passiert, wenn ich das Backup ausführen will:
Code:
INFO: starting new backup job: vzdump 103 --node c-p001 --prune-backups 'keep-last=2' --notes-template '{{guestname}}' --mode snapshot --all 0 --mailnotification failure --storage Backup --compress zstd
INFO: Starting Backup of VM 103 (lxc)
INFO: Backup started at 2022-05-07 13:58:35
INFO: status = running
INFO: CT Name: turn
INFO: including mount point rootfs ('/') in backup
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
INFO: creating vzdump archive '/mnt/pve/Backup/dump/vzdump-lxc-103-2022_05_07-13_58_35.tar.zst'
INFO: tar: /mnt/pve/Backup/dump/vzdump-lxc-103-2022_05_07-13_58_35.tmp: Cannot open: Permission denied
INFO: tar: Error is not recoverable: exiting now
INFO: cleanup temporary 'vzdump' snapshot
ERROR: Backup of VM 103 failed - command 'set -o pipefail && lxc-usernsexec -m u:0:100000:65536 -m g:0:100000:65536 -- tar cpf - --totals --one-file-system -p --sparse --numeric-owner --acls --xattrs '--xattrs-include=user.*' '--xattrs-include=security.capability' '--warning=no-file-ignored' '--warning=no-xattr-write' --one-file-system '--warning=no-file-ignored' '--directory=/mnt/pve/Backup/dump/vzdump-lxc-103-2022_05_07-13_58_35.tmp' ./etc/vzdump/pct.conf ./etc/vzdump/pct.fw '--directory=/mnt/vzsnap0' --no-anchored '--exclude=lost+found' --anchored '--exclude=./tmp/?*' '--exclude=./var/tmp/?*' '--exclude=./var/run/?*.pid' ./ | zstd --rsyncable '--threads=1' >/mnt/pve/Backup/dump/vzdump-lxc-103-2022_05_07-13_58_35.tar.dat' failed: exit code 2
INFO: Failed at 2022-05-07 13:58:35
INFO: Backup job finished with errors
TASK ERROR: job errors

1651925005312.png

Backup Storage:
1651925529670.png

Auf dem nas:
1651925486037.png

Freue mich auf Hinweise.

LG Alex
 
Last edited:
Du hast ein Berechtigungsproblem auf die Freigabe
Code:
INFO: tar: /mnt/pve/Backup/dump/vzdump-lxc-103-2022_05_07-13_58_35.tmp: Cannot open: Permission denied

Kontrolliere mal die Samba/NFS Freigabe die du eingehängt hast.
 
Du hast ein Berechtigungsproblem auf die Freigabe
Code:
INFO: tar: /mnt/pve/Backup/dump/vzdump-lxc-103-2022_05_07-13_58_35.tmp: Cannot open: Permission denied

Kontrolliere mal die Samba/NFS Freigabe die du eingehängt hast.
Hab ich schon, da geht alles. Habe ja auch die anderen Container und Backups problemlos genau auf der Freigabe sichern können.

Das lief alles in einem Backup Job zwischen 13:xx bis 13:58. Alle liefen problemlos durch, nur der eine Container zeigt mir immer wieder Fehler an.

Habe die Freigabe zwischenzeitlich einmal komplett entfernt und formatiert, damit also auch alle Backups gelöscht. Aber das mach ich nun zum 4ten Mal und ich kann ja nicht jedes Mal alle Backups weghauen nur weil dieser eine Container Probleme macht.

Die NFS Freigabe ist auf Version 4 mit lesen und schreiben ohne Root Squash.
 
Heute wieder. Gestern lief das Backup... Verstehe es nicht.
 

Attachments

  • 2022-05-11 16_47_06-c-p001 - Proxmox Virtual Environment.png
    2022-05-11 16_47_06-c-p001 - Proxmox Virtual Environment.png
    26.4 KB · Views: 13
Welche Berechtigungen stehen denn bei dir auf der Freigabe am Proxmox sichtbar?
Code:
ls -ld /mnt/pve/Backup
Und geht auch ein
Code:
touch   /mnt/pve/Backup/blabla
Kann der CT denn im gestoppen Zustand gesichert werden?
Was steht bei dir unter
Code:
cat /etc/vzdump.conf
 
1: drwxrwxrwx 4 root root 4096 May 7 22:42 /mnt/pve/Backup
2:
root@c-p001:/mnt/pve/Backup# touch /mnt/pve/Backup/dump
root@c-p001:/mnt/pve/Backup#
3:
Code:
# vzdump default settings


#tmpdir: DIR

#dumpdir: DIR

#storage: STORAGE_ID

#mode: snapshot|suspend|stop

#bwlimit: KBPS

#ionice: PRI

#lockwait: MINUTES

#stopwait: MINUTES

#stdexcludes: BOOLEAN

#mailto: ADDRESSLIST

#prune-backups: keep-INTERVAL=N[,...]

#script: FILENAME

#exclude-path: PATHLIST

#pigz: N

Beispiel Backup VM vom gleichen Tag:
-rw-r----- 1 root root 11300105040 May 11 08:15 vzdump-qemu-1200-2022_05_11-08_09_44.vma.zst
-rw-r--r-- 1 root root 6 May 11 08:15 vzdump-qemu-1200-2022_05_11-08_09_44.vma.zst.notes
-rw-r--r-- 1 root root 8282 May 11 08:15 vzdump-qemu-1200-2022_05_11-08_09_44.log

Freigabe auf dem NAS:
1652286833229.png
 
Last edited:
Sehr strange. Sieht eigentlich gut aus. Kannst bitte noch testen ob das Backup von LXC im gestoppen Zusand tut. Ich hatte nämlich mal vor ca. 2 Jahren genau so ein Phänomen mit Qnap. Da konnte einfach nur im Betrieb das TMP File nicht abgelegt werden. Mit jedem anderen NFS Server gings.

Und lass die Berechtigungen auch mal sehen:
Code:
ls -l /mnt/pve/Backup/

Und noch ein
Code:
cat /etc/pve/storage.cfg
 
Auch gestoppt hats gerade beim Test nicht funktioniert. Gleicher Fehler. Also Backup im Stopp Mode.

Code:
root@c-p001:~# ls -l /mnt/pve/Backup/

total 32

drwxrwx--- 2 root root 20480 May 12 04:42 dump

drwxrwx--- 2 root root  4096 May  7 22:42 snippets

root@c-p001:~# cat /etc/pve/storage.cfg

dir: local

        path /var/lib/vz

        content snippets,backup,vztmpl,iso

        shared 0


lvmthin: local-lvm

        thinpool data

        vgname pve

        content images,rootdir


zfspool: ZFS-01

        pool ZFS-01

        content rootdir,images

        mountpoint /ZFS-01

        sparse 0


zfspool: ZFS-02

        pool ZFS-02

        content rootdir,images

        mountpoint /ZFS-02

        nodes c-p001


nfs: Backup

        export /Backup

        path /mnt/pve/Backup

        server 10.0.0.3

        content backup,snippets

        options vers=4

        prune-backups keep-all=1
 
Ok, dann bin ich mit meinem Latein auch am Ende. Qnap halt... wir tauschen der Zeit alle durch echte Server aus. Versuch mal CIFS. Upgrade auf Qnap OS5 schon versucht?
 
  • Like
Reactions: corin.corvus
Ok, dann bin ich mit meinem Latein auch am Ende. Qnap halt... wir tauschen der Zeit alle durch echte Server aus. Versuch mal CIFS. Upgrade auf Qnap OS5 schon versucht?
:confused:

1652386468098.png
:rolleyes:

Schon doof.. Mal sehen ob ich es mit Cifs hinbekomme.
 
Ok, dann bin ich mit meinem Latein auch am Ende. Qnap halt... wir tauschen der Zeit alle durch echte Server aus. Versuch mal CIFS. Upgrade auf Qnap OS5 schon versucht?

Habe nun Backup als Cifs eingebunden. leider kommt es nun zu anderen Fehlern bei anderen VMs. Irgendwie will das allgemein nicht richtig laufen.

Code:
INFO: starting new backup job: vzdump 100 103 104 105 112 401 450 451 --prune-backups 'keep-last=2' --mode snapshot --storage Backup --compress zstd --notes-template '{{guestname}}' --mailnotification always --node c-p001 --all 0
INFO: filesystem type on dumpdir is 'cifs' -using /var/tmp/vzdumptmp1450583_100 for temporary files
INFO: Starting Backup of VM 100 (lxc)
INFO: Backup started at 2022-06-29 16:30:34
INFO: status = running
INFO: CT Name: dns
INFO: including mount point rootfs ('/') in backup
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
INFO: creating vzdump archive '/mnt/pve/Backup/dump/vzdump-lxc-100-2022_06_29-16_30_34.tar.zst'
INFO: Total bytes written: 6368512000 (6.0GiB, 10MiB/s)
INFO: archive file size: 1.41GB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=2
INFO: pruned 0 backup(s)
INFO: cleanup temporary 'vzdump' snapshot
INFO: Finished Backup of VM 100 (00:10:12)
INFO: Backup finished at 2022-06-29 16:40:46
INFO: filesystem type on dumpdir is 'cifs' -using /var/tmp/vzdumptmp1450583_103 for temporary files
INFO: Starting Backup of VM 103 (lxc)
INFO: Backup started at 2022-06-29 16:40:46
INFO: status = running
INFO: CT Name: turn
INFO: including mount point rootfs ('/') in backup
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
INFO: creating vzdump archive '/mnt/pve/Backup/dump/vzdump-lxc-103-2022_06_29-16_40_46.tar.zst'
INFO: Total bytes written: 2759014400 (2.6GiB, 14MiB/s)
INFO: archive file size: 668MB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=2
INFO: pruned 0 backup(s)
INFO: cleanup temporary 'vzdump' snapshot
INFO: Finished Backup of VM 103 (00:03:16)
INFO: Backup finished at 2022-06-29 16:44:02
INFO: filesystem type on dumpdir is 'cifs' -using /var/tmp/vzdumptmp1450583_104 for temporary files
INFO: Starting Backup of VM 104 (lxc)
INFO: Backup started at 2022-06-29 16:44:02
INFO: status = running
INFO: CT Name: camsec
INFO: including mount point rootfs ('/') in backup
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
INFO: creating vzdump archive '/mnt/pve/Backup/dump/vzdump-lxc-104-2022_06_29-16_44_02.tar.zst'
INFO: Total bytes written: 6890895360 (6.5GiB, 20MiB/s)
INFO: archive file size: 1.82GB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=2
INFO: pruned 0 backup(s)
INFO: cleanup temporary 'vzdump' snapshot
INFO: Finished Backup of VM 104 (00:05:38)
INFO: Backup finished at 2022-06-29 16:49:40
INFO: filesystem type on dumpdir is 'cifs' -using /var/tmp/vzdumptmp1450583_105 for temporary files
INFO: Starting Backup of VM 105 (lxc)
INFO: Backup started at 2022-06-29 16:49:40
INFO: status = running
INFO: CT Name: network
INFO: including mount point rootfs ('/') in backup
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
INFO: creating vzdump archive '/mnt/pve/Backup/dump/vzdump-lxc-105-2022_06_29-16_49_40.tar.zst'
INFO: Total bytes written: 8981401600 (8.4GiB, 12MiB/s)
INFO: archive file size: 4.99GB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=2
INFO: pruned 0 backup(s)
INFO: cleanup temporary 'vzdump' snapshot
INFO: Finished Backup of VM 105 (00:13:05)
INFO: Backup finished at 2022-06-29 17:02:45
INFO: filesystem type on dumpdir is 'cifs' -using /var/tmp/vzdumptmp1450583_112 for temporary files
INFO: Starting Backup of VM 112 (lxc)
INFO: Backup started at 2022-06-29 17:02:45
INFO: status = running
INFO: CT Name: wg-vpn
INFO: including mount point rootfs ('/') in backup
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
INFO: creating vzdump archive '/mnt/pve/Backup/dump/vzdump-lxc-112-2022_06_29-17_02_45.tar.zst'
INFO: Total bytes written: 1647278080 (1.6GiB, 20MiB/s)
INFO: archive file size: 538MB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=2
INFO: pruned 0 backup(s)
INFO: cleanup temporary 'vzdump' snapshot
INFO: Finished Backup of VM 112 (00:01:21)
INFO: Backup finished at 2022-06-29 17:04:06
INFO: Starting Backup of VM 401 (qemu)
INFO: Backup started at 2022-06-29 17:04:06
INFO: status = running
INFO: VM Name: K-M1
INFO: include disk 'scsi0' 'ZFS-01:vm-401-disk-0' 8G
INFO: backup mode: snapshot
INFO: ionice priority: 7
ERROR: Backup of VM 401 failed - unable to open '/mnt/pve/Backup/dump/vzdump-qemu-401-2022_06_29-17_04_06.tmp/qemu-server.conf' at /usr/share/perl5/PVE/VZDump/QemuServer.pm line 210.
INFO: Failed at 2022-06-29 17:04:06
INFO: Starting Backup of VM 450 (qemu)
INFO: Backup started at 2022-06-29 17:04:06
INFO: status = running
INFO: VM Name: K-W01
INFO: include disk 'scsi0' 'ZFS-01:vm-450-disk-0' 8G
INFO: backup mode: snapshot
INFO: ionice priority: 7
ERROR: Backup of VM 450 failed - unable to open '/mnt/pve/Backup/dump/vzdump-qemu-450-2022_06_29-17_04_06.tmp/qemu-server.conf' at /usr/share/perl5/PVE/VZDump/QemuServer.pm line 210.
INFO: Failed at 2022-06-29 17:04:06
INFO: Starting Backup of VM 451 (qemu)
INFO: Backup started at 2022-06-29 17:04:06
INFO: status = running
INFO: VM Name: K-W02
INFO: include disk 'scsi0' 'ZFS-01:vm-451-disk-0' 8G
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: creating vzdump archive '/mnt/pve/Backup/dump/vzdump-qemu-451-2022_06_29-17_04_06.vma.zst'
ERROR: unable to open file '/mnt/pve/Backup/dump/vzdump-qemu-451-2022_06_29-17_04_06.vma.dat' - Stale file handle
INFO: aborting backup job
INFO: resuming VM again
ERROR: Backup of VM 451 failed - unable to open file '/mnt/pve/Backup/dump/vzdump-qemu-451-2022_06_29-17_04_06.vma.dat' - Stale file handle
INFO: Failed at 2022-06-29 17:04:06
INFO: Backup job finished with errors
TASK ERROR: job errors
 
Zum Einen scheinen nun die Berechtigungen auf der Qnap nun nicht mehr zu passen. Das hatte ich auch schon unzählige male. Qnap per ssh einloggen und ein auf deine Freigabe mal ein chmod -R 777 /bla/bla machen, das hat bei uns immer geholfen. Auf keinen Fall über das Webinterface die Berechtigungen ändern, das kann viele, viele, viele Stunden länger dauern.
ERROR: unable to open file '/mnt/pve/Backup/dump/vzdump-qemu-451-2022_06_29-17_04_06.vma.dat' - Stale file handle
Da scheint dann wohl zwischendurch die Verbindung auch noch weg gewesen zu sein.
 
Zum Einen scheinen nun die Berechtigungen auf der Qnap nun nicht mehr zu passen. Das hatte ich auch schon unzählige male. Qnap per ssh einloggen und ein auf deine Freigabe mal ein chmod -R 777 /bla/bla machen, das hat bei uns immer geholfen. Auf keinen Fall über das Webinterface die Berechtigungen ändern, das kann viele, viele, viele Stunden länger dauern.

Da scheint dann wohl zwischendurch die Verbindung auch noch weg gewesen zu sein.
Das erste habe ich gecheckt, ist bereits Vollzugriff für die Freigabe für den User. 777 würde doch den Gastzugriff bedeuten oder?

Das zweite kann nicht sein, da aktuell 2 VMs genau auf der Freigabe mit einer Disk laufen, die zwar im leerlauf sind weil sie nix tun, aber die Verbindung war im log nie unterbrochen. Das hatte ich zum Test mit eingerichtet, einfach damit ich was zum monitoren habe.
 
Hier die Berechtigungen. Ist alles frei. b-user ist der User in dem Storage bei Proxmox, den ich dafür verwende. Mehr Berechtigungen gehen leider nicht. Die Fehlermeldungen bleiben, kommen aber auch nur komplett sporadisch. Mal bei VM 1001, mal bei 450, mal bei 401,450 und 451 usw.

Bricht teils binnen Sekunden ab das Backup, während er das danach einer anderen VM einfach easy durchführt.


Freigabe:
Code:
drwxrwxrwx    2 b-user   everyone      4096 Jun 29 16:30 snippets/
drwxrwxrwx    4 admin    administ      4096 Jun 29 16:30 ./
drwxr-xr-x    6 admin    administ      4096 Jun 29 16:33 ../
drwxrwxrwx    2 b-user   everyone     12288 Jun 30 21:37 dump/

Dump Ordner
Code:
 ls -ltra
drwxrwxrwx    4 admin    administ      4096 Jun 29 16:30 ../
-rwxrwxrwx    1 b-user   everyone       810 Jun 29 17:04 vzdump-qemu-451-2022_06_29-17_04_06.log*
-rwxrwxrwx    1 b-user   everyone       512 Jun 29 17:04 vzdump-qemu-450-2022_06_29-17_04_06.log*
-rwxrwxrwx    1 b-user   everyone       511 Jun 29 17:04 vzdump-qemu-401-2022_06_29-17_04_06.log*
-rwxrwxrwx    1 b-user   everyone       523 Jun 29 20:40 vzdump-qemu-1011-2022_06_29-20_40_23.log*
-rwxrwxrwx    1 b-user   everyone       818 Jun 29 20:40 vzdump-qemu-1010-2022_06_29-20_40_23.log*
-rwxrwxrwx    1 b-user   everyone       515 Jun 29 20:40 vzdump-qemu-1005-2022_06_29-20_40_23.log*
-rwxrwxrwx    1 b-user   everyone       818 Jun 29 20:40 vzdump-qemu-1200-2022_06_29-20_40_35.log*
-rwxrwxrwx    1 b-user   everyone       520 Jun 29 20:40 vzdump-qemu-1003-2022_06_29-20_40_35.log*
-rwxrwxrwx    1 b-user   everyone       524 Jun 29 20:40 vzdump-qemu-1002-2022_06_29-20_40_35.log*
-rwxrwxrwx    1 b-user   everyone       823 Jun 29 20:40 vzdump-qemu-1001-2022_06_29-20_40_35.log*
-rwxrwxrwx    1 b-user   everyone       823 Jun 29 20:41 vzdump-qemu-1001-2022_06_29-20_41_03.log*
-rwxrwxrwx    1 b-user   everyone      1206 Jun 29 20:57 vzdump-qemu-1001-2022_06_29-20_56_31.log*
-rwxrwxrwx    1 b-user   everyone         3 Jun 29 21:04 vzdump-lxc-100-2022_06_29-21_00_00.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 1515395502 Jun 29 21:04 vzdump-lxc-100-2022_06_29-21_00_00.tar.zst*
-rwxrwxrwx    1 b-user   everyone       900 Jun 29 21:04 vzdump-lxc-100-2022_06_29-21_00_00.log*
-rwxrwxrwx    1 b-user   everyone         4 Jun 29 21:06 vzdump-lxc-103-2022_06_29-21_04_28.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 701019469 Jun 29 21:06 vzdump-lxc-103-2022_06_29-21_04_28.tar.zst*
-rwxrwxrwx    1 b-user   everyone       900 Jun 29 21:06 vzdump-lxc-103-2022_06_29-21_04_28.log*
-rwxrwxrwx    1 b-user   everyone         6 Jun 29 21:12 vzdump-lxc-104-2022_06_29-21_06_48.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 1951845763 Jun 29 21:12 vzdump-lxc-104-2022_06_29-21_06_48.tar.zst*
-rwxrwxrwx    1 b-user   everyone       903 Jun 29 21:12 vzdump-lxc-104-2022_06_29-21_06_48.log*
-rwxrwxrwx    1 b-user   everyone         7 Jun 29 21:26 vzdump-lxc-105-2022_06_29-21_12_40.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 5357156228 Jun 29 21:26 vzdump-lxc-105-2022_06_29-21_12_40.tar.zst*
-rwxrwxrwx    1 b-user   everyone       904 Jun 29 21:26 vzdump-lxc-105-2022_06_29-21_12_40.log*
-rwxrwxrwx    1 b-user   everyone         5 Jun 29 21:32 vzdump-lxc-110-2022_06_29-21_26_49.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 1774862479 Jun 29 21:32 vzdump-lxc-110-2022_06_29-21_26_49.tar.zst*
-rwxrwxrwx    1 b-user   everyone      1012 Jun 29 21:32 vzdump-lxc-110-2022_06_29-21_26_49.log*
-rwxrwxrwx    1 b-user   everyone         6 Jun 29 21:33 vzdump-lxc-112-2022_06_29-21_32_05.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 564780791 Jun 29 21:33 vzdump-lxc-112-2022_06_29-21_32_05.tar.zst*
-rwxrwxrwx    1 b-user   everyone       512 Jun 29 21:33 vzdump-qemu-450-2022_06_29-21_33_49.log*
-rwxrwxrwx    1 b-user   everyone       511 Jun 29 21:33 vzdump-qemu-401-2022_06_29-21_33_49.log*
-rwxrwxrwx    1 b-user   everyone       902 Jun 29 21:33 vzdump-lxc-112-2022_06_29-21_32_05.log*
-rwxrwxrwx    1 b-user   everyone         5 Jun 29 21:35 vzdump-qemu-451-2022_06_29-21_33_49.vma.zst.notes*
-rwxrwxrwx    1 b-user   everyone 744142667 Jun 29 21:35 vzdump-qemu-451-2022_06_29-21_33_49.vma.zst*
-rwxrwxrwx    1 b-user   everyone      3921 Jun 29 21:35 vzdump-qemu-451-2022_06_29-21_33_49.log*
-rwxrwxrwx    1 b-user   everyone       815 Jun 29 21:35 vzdump-qemu-1005-2022_06_29-21_35_43.log*
-rwxrwxrwx    1 b-user   everyone       820 Jun 29 21:35 vzdump-qemu-1003-2022_06_29-21_35_43.log*
-rwxrwxrwx    1 b-user   everyone       524 Jun 29 21:35 vzdump-qemu-1002-2022_06_29-21_35_43.log*
-rwxrwxrwx    1 b-user   everyone       823 Jun 29 21:35 vzdump-qemu-1001-2022_06_29-21_35_43.log*
-rwxrwxrwx    1 b-user   everyone     10584 Jun 29 23:11 vzdump-qemu-1010-2022_06_29-21_35_44.log*
-rwxrwxrwx    1 b-user   everyone         3 Jun 30 21:02 vzdump-lxc-100-2022_06_30-21_00_00.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 1515313819 Jun 30 21:02 vzdump-lxc-100-2022_06_30-21_00_00.tar.zst*
-rwxrwxrwx    1 b-user   everyone      1038 Jun 30 21:02 vzdump-lxc-100-2022_06_30-21_00_00.log*
-rwxrwxrwx    1 b-user   everyone         4 Jun 30 21:04 vzdump-lxc-103-2022_06_30-21_02_41.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 701142567 Jun 30 21:04 vzdump-lxc-103-2022_06_30-21_02_41.tar.zst*
-rwxrwxrwx    1 b-user   everyone      1038 Jun 30 21:04 vzdump-lxc-103-2022_06_30-21_02_41.log*
-rwxrwxrwx    1 b-user   everyone         6 Jun 30 21:06 vzdump-lxc-104-2022_06_30-21_04_05.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 1951877090 Jun 30 21:06 vzdump-lxc-104-2022_06_30-21_04_05.tar.zst*
-rwxrwxrwx    1 b-user   everyone      1041 Jun 30 21:06 vzdump-lxc-104-2022_06_30-21_04_05.log*
-rwxrwxrwx    1 b-user   everyone         7 Jun 30 21:10 vzdump-lxc-105-2022_06_30-21_06_36.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 5343283532 Jun 30 21:10 vzdump-lxc-105-2022_06_30-21_06_36.tar.zst*
-rwxrwxrwx    1 b-user   everyone      1042 Jun 30 21:10 vzdump-lxc-105-2022_06_30-21_06_36.log*
-rwxrwxrwx    1 b-user   everyone         5 Jun 30 21:12 vzdump-lxc-110-2022_06_30-21_10_32.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 1792754595 Jun 30 21:12 vzdump-lxc-110-2022_06_30-21_10_32.tar.zst*
-rwxrwxrwx    1 b-user   everyone      1150 Jun 30 21:12 vzdump-lxc-110-2022_06_30-21_10_32.log*
-rwxrwxrwx    1 b-user   everyone         6 Jun 30 21:12 vzdump-lxc-112-2022_06_30-21_12_04.tar.zst.notes*
-rwxrwxrwx    1 b-user   everyone 564840778 Jun 30 21:12 vzdump-lxc-112-2022_06_30-21_12_04.tar.zst*
-rwxrwxrwx    1 b-user   everyone       507 Jun 30 21:12 vzdump-qemu-401-2022_06_30-21_12_43.log*
-rwxrwxrwx    1 b-user   everyone      1040 Jun 30 21:12 vzdump-lxc-112-2022_06_30-21_12_04.log*
-rwxrwxrwx    1 b-user   everyone 747459472 Jun 30 21:13 vzdump-qemu-450-2022_06_30-21_12_43.vma.zst*
-rwxrwxrwx    1 b-user   everyone         5 Jun 30 21:13 vzdump-qemu-450-2022_06_30-21_12_43.vma.zst.notes*
-rwxrwxrwx    1 b-user   everyone      1928 Jun 30 21:13 vzdump-qemu-450-2022_06_30-21_12_43.log*
-rwxrwxrwx    1 b-user   everyone 743795723 Jun 30 21:13 vzdump-qemu-451-2022_06_30-21_13_13.vma.zst*
-rwxrwxrwx    1 b-user   everyone         5 Jun 30 21:13 vzdump-qemu-451-2022_06_30-21_13_13.vma.zst.notes*
-rwxrwxrwx    1 b-user   everyone      2022 Jun 30 21:13 vzdump-qemu-451-2022_06_30-21_13_13.log*
-rwxrwxrwx    1 b-user   everyone       823 Jun 30 21:13 vzdump-qemu-1001-2022_06_30-21_13_44.log*
-rwxrwxrwx    1 b-user   everyone 2609770598 Jun 30 21:15 vzdump-qemu-1002-2022_06_30-21_13_44.vma.zst*
-rwxrwxrwx    1 b-user   everyone       520 Jun 30 21:15 vzdump-qemu-1003-2022_06_30-21_15_03.log*
-rwxrwxrwx    1 b-user   everyone        13 Jun 30 21:15 vzdump-qemu-1002-2022_06_30-21_13_44.vma.zst.notes*
-rwxrwxrwx    1 b-user   everyone      3598 Jun 30 21:15 vzdump-qemu-1002-2022_06_30-21_13_44.log*
-rwxrwxrwx    1 b-user   everyone       815 Jun 30 21:15 vzdump-qemu-1005-2022_06_30-21_15_03.log*
-rwxrwxrwx    1 b-user   everyone         6 Jun 30 21:32 vzdump-qemu-1010-2022_06_30-21_15_04.vma.zst.notes*
-rwxrwxrwx    1 b-user   everyone 40001670981 Jun 30 21:32 vzdump-qemu-1010-2022_06_30-21_15_04.vma.zst*
-rwxrwxrwx    1 b-user   everyone     11328 Jun 30 21:32 vzdump-qemu-1010-2022_06_30-21_15_04.log*
-rwxrwxrwx    1 b-user   everyone       818 Jun 30 21:36 vzdump-qemu-1200-2022_06_30-21_36_53.log*
-rwxrwxrwx    1 b-user   everyone        11 Jun 30 21:36 vzdump-qemu-1011-2022_06_30-21_32_06.vma.zst.notes*
-rwxrwxrwx    1 b-user   everyone 9676435712 Jun 30 21:36 vzdump-qemu-1011-2022_06_30-21_32_06.vma.zst*
-rwxrwxrwx    1 b-user   everyone      6730 Jun 30 21:36 vzdump-qemu-1011-2022_06_30-21_32_06.log*
-rwxrwxrwx    1 b-user   everyone        14 Jun 30 21:37 vzdump-qemu-5000-2022_06_30-21_36_54.vma.zst.notes*
-rwxrwxrwx    1 b-user   everyone 727642365 Jun 30 21:37 vzdump-qemu-5000-2022_06_30-21_36_54.vma.zst*
-rwxrwxrwx    1 b-user   everyone      8345 Jun 30 21:37 vzdump-qemu-5000-2022_06_30-21_36_54.log*
drwxrwxrwx    2 b-user   everyone     12288 Jun 30 21:37 ./
 
Ich weis das möchtest du jetzt nicht hören. Aber das sind genau die Gründe warum wir über 50 Qnaps raus werfen. Sind einfach nicht brauchbar. Waren vor Jahren echt mal super. Jetzt eben nicht mehr. Jeder €500 PC ist besser.
 
Ich weis das möchtest du jetzt nicht hören. Aber das sind genau die Gründe warum wir über 50 Qnaps raus werfen. Sind einfach nicht brauchbar. Waren vor Jahren echt mal super. Jetzt eben nicht mehr. Jeder €500 PC ist besser.
Warum aber passiert das erst seit Proxmox 7? Warum funktioniert sonst alles reibungslos? Warum läuft sonos mit Musikbibliothek auf dem NAS supi? Wieso laufen Clientseitige Backups jederzeit problemlos mit Paragon Backup? Wieso laufen Kopiervorgänge und manuelle Backups mit Shellscript von Daten auf einer VM über mehrere Stunden problemlos? Wieso laufen virtuelle Datenfestplatten für die VMs im NAS auf Proxmox reibungslos seit Monaten (Via ISCSI)?

Es sind nur die Proxmox Backups die hier Probleme machen. Das NAS selbst läuft einwandfrei und zeigt auch keine Fehler an. Weder Connection, noch sonst was. Kann daher meiner Ansicht nach nicht am NAS liegen, wenn sonst wirklich alles läuft.

Diese Fehlermeldung sagt zudem überhaupt nichts aus. Finde nichts dazu debianseitig oder ob irgendwas anderes Probleme macht und dazwischen funkt.

Code:
INFO: Finished Backup of VM 112 (00:00:45)
INFO: Backup finished at 2022-07-03 21:15:02
INFO: Starting Backup of VM 401 (qemu)
INFO: Backup started at 2022-07-03 21:15:02
INFO: status = stopped
INFO: backup mode: stop
INFO: ionice priority: 7
INFO: VM Name: K-M1
INFO: include disk 'scsi0' 'ZFS-01:vm-401-disk-0' 8G
INFO: creating vzdump archive '/mnt/pve/Backup/dump/vzdump-qemu-401-2022_07_03-21_15_02.vma.zst'
INFO: starting kvm to execute backup task
INFO: started backup task '2861e276-774b-40a9-8999-33c95b6435e0'
INFO:   1% (108.8 MiB of 8.0 GiB) in 3s, read: 36.2 MiB/s, write: 29.5 MiB/s
INFO:   7% (630.8 MiB of 8.0 GiB) in 6s, read: 174.0 MiB/s, write: 17.2 MiB/s
INFO:   8% (732.2 MiB of 8.0 GiB) in 9s, read: 33.8 MiB/s, write: 32.4 MiB/s
INFO:  10% (895.4 MiB of 8.0 GiB) in 12s, read: 54.4 MiB/s, write: 48.8 MiB/s
INFO:  13% (1.1 GiB of 8.0 GiB) in 15s, read: 81.0 MiB/s, write: 64.3 MiB/s
INFO:  16% (1.3 GiB of 8.0 GiB) in 18s, read: 78.5 MiB/s, write: 76.9 MiB/s
INFO:  19% (1.5 GiB of 8.0 GiB) in 21s, read: 65.2 MiB/s, write: 63.4 MiB/s
INFO:  20% (1.7 GiB of 8.0 GiB) in 24s, read: 43.5 MiB/s, write: 40.3 MiB/s
INFO:  22% (1.8 GiB of 8.0 GiB) in 27s, read: 54.4 MiB/s, write: 45.6 MiB/s
INFO:  26% (2.1 GiB of 8.0 GiB) in 30s, read: 90.6 MiB/s, write: 78.9 MiB/s
INFO:  36% (2.9 GiB of 8.0 GiB) in 33s, read: 284.0 MiB/s, write: 93.7 MiB/s
INFO:  58% (4.7 GiB of 8.0 GiB) in 36s, read: 601.8 MiB/s, write: 44.1 MiB/s
INFO: 100% (8.0 GiB of 8.0 GiB) in 39s, read: 1.1 GiB/s, write: 29.0 MiB/s
INFO: backup is sparse: 6.05 GiB (75%) total zero data
INFO: transferred 8.00 GiB in 39 seconds (210.1 MiB/s)
INFO: stopping kvm after backup task
INFO: archive file size: 710MB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=2
INFO: pruned 0 backup(s)
INFO: Finished Backup of VM 401 (00:00:41)
INFO: Backup finished at 2022-07-03 21:15:43
INFO: Starting Backup of VM 450 (qemu)
INFO: Backup started at 2022-07-03 21:15:43
INFO: status = stopped
INFO: backup mode: stop
INFO: ionice priority: 7
INFO: VM Name: K-W01
INFO: include disk 'scsi0' 'ZFS-01:vm-450-disk-0' 8G
ERROR: Backup of VM 450 failed - unable to open '/mnt/pve/Backup/dump/vzdump-qemu-450-2022_07_03-21_15_43.tmp/qemu-server.conf' at /usr/share/perl5/PVE/VZDump/QemuServer.pm line 210.
INFO: Failed at 2022-07-03 21:15:43
INFO: Starting Backup of VM 451 (qemu)
INFO: Backup started at 2022-07-03 21:15:43
INFO: status = stopped
INFO: backup mode: stop
INFO: ionice priority: 7
INFO: VM Name: K-W02
INFO: include disk 'scsi0' 'ZFS-01:vm-451-disk-0' 8G
INFO: creating vzdump archive '/mnt/pve/Backup/dump/vzdump-qemu-451-2022_07_03-21_15_43.vma.zst'
INFO: starting kvm to execute backup task
ERROR: unable to open file '/mnt/pve/Backup/dump/vzdump-qemu-451-2022_07_03-21_15_43.vma.dat' - Stale file handle
INFO: aborting backup job
INFO: stopping kvm after backup task
ERROR: Backup of VM 451 failed - unable to open file '/mnt/pve/Backup/dump/vzdump-qemu-451-2022_07_03-21_15_43.vma.dat' - Stale file handle
INFO: Failed at 2022-07-03 21:15:45
INFO: Starting Backup of VM 1001 (qemu)
INFO: Backup started at 2022-07-03 21:15:45
INFO: status = running
INFO: VM Name: DC1-Central
INFO: include disk 'scsi0' 'ZFS-01:vm-1001-disk-0' 50G
INFO: backup mode: snapshot
INFO: ionice priority: 7
ERROR: Backup of VM 1001 failed - unable to open '/mnt/pve/Backup/dump/vzdump-qemu-1001-2022_07_03-21_15_45.tmp/qemu-server.conf' at /usr/share/perl5/PVE/VZDump/QemuServer.pm line 210.
INFO: Failed at 2022-07-03 21:15:45
INFO: Starting Backup of VM 1002 (qemu)
INFO: Backup started at 2022-07-03 21:15:46
INFO: status = stopped
INFO: backup mode: stop
INFO: ionice priority: 7
INFO: VM Name: DC2-Secondary
INFO: include disk 'scsi0' 'ZFS-01:vm-1002-disk-0' 12G
ERROR: Backup of VM 1002 failed - unable to open '/mnt/pve/Backup/dump/vzdump-qemu-1002-2022_07_03-21_15_46.tmp/qemu-server.conf' at /usr/share/perl5/PVE/VZDump/QemuServer.pm line 210.
INFO: Failed at 2022-07-03 21:15:46
INFO: Starting Backup of VM 1003 (qemu)
INFO: Backup started at 2022-07-03 21:15:46
INFO: status = running
INFO: VM Name: DC-Backup
INFO: include disk 'scsi0' 'ZFS-01:vm-1003-disk-0' 12G
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: creating vzdump archive '/mnt/pve/Backup/dump/vzdump-qemu-1003-2022_07_03-21_15_46.vma.zst'
INFO: started backup task 'a2565a8b-f2f1-4607-b64f-9e5708139d7a'
INFO: resuming VM again
INFO:   1% (155.9 MiB of 12.0 GiB) in 3s, read: 52.0 MiB/s, write: 39.7 MiB/s
INFO:   2% (261.0 MiB of 12.0 GiB) in 6s, read: 35.0 MiB/s, write: 25.8 MiB/s
INFO:   5% (735.9 MiB of 12.0 GiB) in 9s, read: 158.3 MiB/s, write: 60.8 MiB/s
INFO:   7% (909.9 MiB of 12.0 GiB) in 12s, read: 58.0 MiB/s, write: 56.7 MiB/s
INFO:   9% (1.2 GiB of 12.0 GiB) in 15s, read: 97.9 MiB/s, write: 93.8 MiB/s
INFO:  11% (1.4 GiB of 12.0 GiB) in 18s, read: 78.5 MiB/s, write: 69.6 MiB/s
INFO:  13% (1.6 GiB of 12.0 GiB) in 21s, read: 54.4 MiB/s, write: 51.7 MiB/s
INFO:  14% (1.8 GiB of 12.0 GiB) in 24s, read: 66.5 MiB/s, write: 63.0 MiB/s
INFO:  15% (1.9 GiB of 12.0 GiB) in 27s, read: 50.8 MiB/s, write: 46.4 MiB/s
INFO:  17% (2.0 GiB of 12.0 GiB) in 30s, read: 48.3 MiB/s, write: 47.2 MiB/s
INFO:  18% (2.2 GiB of 12.0 GiB) in 33s, read: 54.4 MiB/s, write: 49.4 MiB/s
INFO:  19% (2.4 GiB of 12.0 GiB) in 36s, read: 56.8 MiB/s, write: 51.4 MiB/s
INFO:  21% (2.6 GiB of 12.0 GiB) in 39s, read: 72.5 MiB/s, write: 56.0 MiB/s
INFO:  23% (2.9 GiB of 12.0 GiB) in 42s, read: 93.0 MiB/s, write: 92.9 MiB/s
INFO:  25% (3.1 GiB of 12.0 GiB) in 45s, read: 65.2 MiB/s, write: 65.1 MiB/s
INFO:  27% (3.3 GiB of 12.0 GiB) in 48s, read: 99.1 MiB/s, write: 96.6 MiB/s
INFO:  30% (3.6 GiB of 12.0 GiB) in 51s, read: 91.8 MiB/s, write: 76.0 MiB/s
INFO:  31% (3.8 GiB of 12.0 GiB) in 55s, read: 38.1 MiB/s, write: 37.5 MiB/s
INFO:  32% (3.9 GiB of 12.0 GiB) in 58s, read: 38.7 MiB/s, write: 36.1 MiB/s
INFO:  34% (4.2 GiB of 12.0 GiB) in 1m 1s, read: 101.5 MiB/s, write: 89.9 MiB/s
INFO:  36% (4.4 GiB of 12.0 GiB) in 1m 4s, read: 70.1 MiB/s, write: 60.2 MiB/s
INFO:  38% (4.6 GiB of 12.0 GiB) in 1m 7s, read: 66.5 MiB/s, write: 50.1 MiB/s
INFO:  40% (4.8 GiB of 12.0 GiB) in 1m 10s, read: 79.8 MiB/s, write: 76.2 MiB/s
INFO:  41% (5.0 GiB of 12.0 GiB) in 1m 13s, read: 64.0 MiB/s, write: 63.9 MiB/s
INFO:  43% (5.2 GiB of 12.0 GiB) in 1m 16s, read: 76.1 MiB/s, write: 72.9 MiB/s
INFO:  45% (5.5 GiB of 12.0 GiB) in 1m 19s, read: 84.6 MiB/s, write: 73.1 MiB/s
INFO:  46% (5.6 GiB of 12.0 GiB) in 1m 22s, read: 55.6 MiB/s, write: 55.4 MiB/s
INFO:  47% (5.7 GiB of 12.0 GiB) in 1m 25s, read: 37.5 MiB/s, write: 37.4 MiB/s
INFO:  49% (6.0 GiB of 12.0 GiB) in 1m 28s, read: 74.9 MiB/s, write: 73.0 MiB/s
INFO:  51% (6.2 GiB of 12.0 GiB) in 1m 31s, read: 68.9 MiB/s, write: 68.6 MiB/s
INFO:  52% (6.3 GiB of 12.0 GiB) in 1m 34s, read: 37.5 MiB/s, write: 36.3 MiB/s
INFO:  53% (6.4 GiB of 12.0 GiB) in 1m 37s, read: 52.0 MiB/s, write: 51.8 MiB/s
INFO:  55% (6.7 GiB of 12.0 GiB) in 1m 40s, read: 95.5 MiB/s, write: 73.6 MiB/s
INFO:  57% (6.9 GiB of 12.0 GiB) in 1m 43s, read: 58.0 MiB/s, write: 57.9 MiB/s
INFO:  59% (7.1 GiB of 12.0 GiB) in 1m 46s, read: 78.5 MiB/s, write: 68.9 MiB/s
INFO:  61% (7.3 GiB of 12.0 GiB) in 1m 49s, read: 82.2 MiB/s, write: 77.9 MiB/s
INFO:  64% (7.7 GiB of 12.0 GiB) in 1m 52s, read: 118.4 MiB/s, write: 111.3 MiB/s
INFO:  66% (8.0 GiB of 12.0 GiB) in 1m 55s, read: 110.0 MiB/s, write: 108.5 MiB/s
INFO:  68% (8.2 GiB of 12.0 GiB) in 1m 58s, read: 73.7 MiB/s, write: 57.2 MiB/s
INFO:  78% (9.4 GiB of 12.0 GiB) in 2m 1s, read: 409.6 MiB/s, write: 30.7 MiB/s
INFO: 100% (12.0 GiB of 12.0 GiB) in 2m 4s, read: 879.4 MiB/s, write: 8.0 KiB/s
INFO: backup is sparse: 4.61 GiB (38%) total zero data
INFO: transferred 12.00 GiB in 124 seconds (99.1 MiB/s)
INFO: archive file size: 2.63GB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=2
INFO: pruned 0 backup(s)
INFO: Finished Backup of VM 1003 (00:02:04)
INFO: Backup finished at 2022-07-03 21:17:50
INFO: Starting Backup of VM 1005 (qemu)
 
Last edited:
Deine Frage ist absolut berechtigt. Ohne selbst Zugriff auf das Gespann zu haben und Tests durchführen zu können, wird es wohl nicht so einfach zu lösen sein. Lösbar ist es sicher. Ist es immer. Nur ne Frage von Wissen und Aufwand. Ich würd einfach ein Ticket bei Proxmox aufmachen und mit denen das dann gemeinsam über SSH ansehen was da passiert. Wäre selbst schon neugierig was da abgeht.
 
  • Like
Reactions: corin.corvus
Deine Frage ist absolut berechtigt. Ohne selbst Zugriff auf das Gespann zu haben und Tests durchführen zu können, wird es wohl nicht so einfach zu lösen sein. Lösbar ist es sicher. Ist es immer. Nur ne Frage von Wissen und Aufwand. Ich würd einfach ein Ticket bei Proxmox aufmachen und mit denen das dann gemeinsam über SSH ansehen was da passiert. Wäre selbst schon neugierig was da abgeht.
Ich glaube ohne Subscription komme ich da nicht weit :/
 
Das Thema ist zwar schon etwas älter, aber ich hatte das selbe Problem. Und nein, kein QNAP, sondern TrueNAS. Dabei war es egal ob Core oder Scale.

Die Lösung, zumindest bei mir, war:
/etc/vzdump.conf:

# vzdump default settings tmpdir: /tmp #dumpdir: DIR #storage: STORAGE_ID #mode: snapshot|suspend|stop #bwlimit: KBPS #performance: max-workers=N #ionice: PRI #lockwait: MINUTES #stopwait: MINUTES #stdexcludes: BOOLEAN #mailto: ADDRESSLIST #prune-backups: keep-INTERVAL=N[,...] #script: FILENAME #exclude-path: PATHLIST #pigz: N #notes-template: {{guestname}}

Seit dieser kleinen Änderung laufen alle Backups reibungslos durch.
Log eines Backups das sonst immer Probleme bereitete:
INFO: starting new backup job: vzdump 115 --node pve2 --notes-template '{{guestname}}' --mode snapshot --compress zstd --remove 0 --storage PVE_Backups INFO: Starting Backup of VM 115 (lxc) INFO: Backup started at 2023-07-02 10:24:46 INFO: status = running INFO: CT Name: casa INFO: including mount point rootfs ('/') in backup INFO: mode failure - some volumes do not support snapshots INFO: trying 'suspend' mode instead INFO: backup mode: suspend INFO: ionice priority: 7 INFO: CT Name: casa INFO: including mount point rootfs ('/') in backup INFO: starting first sync /proc/1635/root/ to /tmp/vzdumptmp15653_115/ INFO: first sync finished - transferred 2.57G bytes in 159s INFO: suspending guest INFO: starting final sync /proc/1635/root/ to /tmp/vzdumptmp15653_115/ INFO: final sync finished - transferred 45.05M bytes in 2s INFO: resuming guest INFO: guest is online again after 2 seconds INFO: creating vzdump archive '/mnt/pve/PVE_Backups/dump/vzdump-lxc-115-2023_07_02-10_24_46.tar.zst' INFO: Total bytes written: 2613268480 (2.5GiB, 70MiB/s) INFO: archive file size: 969MB INFO: adding notes to backup INFO: Finished Backup of VM 115 (00:05:46) INFO: Backup finished at 2023-07-02 10:30:32 INFO: Backup job finished successfully TASK OK
Ach ja, falls ihr einen Cluster betreibt, das File wird nicht repliziert! Es muss/sollte also auf jedem Node geändert werden.
Ich hoffe ich konnte helfen :)
 
Last edited:
Das Thema ist zwar schon etwas älter, aber ich hatte das selbe Problem. Und nein, kein QNAP, sondern TrueNAS. Dabei war es egal ob Core oder Scale.

Die Lösung, zumindest bei mir, war:
/etc/vzdump.conf:


# vzdump default settings

tmpdir: /tmp
#dumpdir: DIR
#storage: STORAGE_ID
#mode: snapshot|suspend|stop
#bwlimit: KBPS
#performance: max-workers=N
#ionice: PRI
#lockwait: MINUTES
#stopwait: MINUTES
#stdexcludes: BOOLEAN
#mailto: ADDRESSLIST
#prune-backups: keep-INTERVAL=N[,...]
#script: FILENAME
#exclude-path: PATHLIST
#pigz: N
#notes-template: {{guestname}}


Seit dieser kleinen Änderung laufen alle Backups reibungslos durch.
Log eines Backups das sonst immer Probleme bereitete:

INFO: starting new backup job: vzdump 115 --node pve2 --notes-template '{{guestname}}' --mode snapshot --compress zstd --remove 0 --storage PVE_Backups
INFO: Starting Backup of VM 115 (lxc)
INFO: Backup started at 2023-07-02 10:24:46
INFO: status = running
INFO: CT Name: casa
INFO: including mount point rootfs ('/') in backup
INFO: mode failure - some volumes do not support snapshots
INFO: trying 'suspend' mode instead
INFO: backup mode: suspend
INFO: ionice priority: 7
INFO: CT Name: casa
INFO: including mount point rootfs ('/') in backup
INFO: starting first sync /proc/1635/root/ to /tmp/vzdumptmp15653_115/
INFO: first sync finished - transferred 2.57G bytes in 159s
INFO: suspending guest
INFO: starting final sync /proc/1635/root/ to /tmp/vzdumptmp15653_115/
INFO: final sync finished - transferred 45.05M bytes in 2s
INFO: resuming guest
INFO: guest is online again after 2 seconds
INFO: creating vzdump archive '/mnt/pve/PVE_Backups/dump/vzdump-lxc-115-2023_07_02-10_24_46.tar.zst'
INFO: Total bytes written: 2613268480 (2.5GiB, 70MiB/s)
INFO: archive file size: 969MB
INFO: adding notes to backup
INFO: Finished Backup of VM 115 (00:05:46)
INFO: Backup finished at 2023-07-02 10:30:32
INFO: Backup job finished successfully
TASK OK

Ach ja, falls ihr einen Cluster betreibt, das File wird nicht repliziert! Es muss/sollte also auf jedem Node geändert werden.
Ich hoffe ich konnte helfen :)
Der "tmpdir: /tmp" Eintrag war bei mir auch die Lösung bei Version 8.2.4, vielen Dank dafür.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!