Backup auf neues NAS / Permisison denied

Dec 14, 2022
90
4
13
Hallo zusammen,
ich brauche mal Hilfe. Meine Proxmox backups mache ich auf ein Synology NAS, dass ich per NFS eingebunden habe. Da das NAS (LAN24TB) langsam den Geist aufgibt, habe ich per HyperBackup ein restore auf die neue NAS (LAN30TB) gemacht, und dann mit FreeFileSync den Rest synchronisiert.
Dann habe ich in Proxmox die neue NAS ebenfalls per NFS eingebunden. Hierbei unterlief mir (der Erste?) Fehler. Ich habe als IP Adresse die alte (LAN24TB) angegeben. Bei den Backups habe ich dann als Ziel LAN30TB gewählt. Das Backup funktionierte, nur logischerweise auf die alte Platte.
Ich habe dann den mount für LAN30TB wieder erstellt, mit neuer IP. Die NFS Einstellungen sind auf beiden NAS gleich.

Jetzt funktioniert leider kein backup mehr:

LAN30TB:
Bash:
INFO: starting new backup job: vzdump 109 --notification-mode notification-system --notes-template '{{guestname}}30TB' --node merlin --fleecing 0 --all 0 --storage Lan30TB --compress zstd --mode snapshot --prune-backups 'keep-last=2'
INFO: Starting Backup of VM 109 (lxc)
INFO: Backup started at 2026-05-09 21:45:48
INFO: status = running
INFO: CT Name: Paperless-produktiv
INFO: including mount point rootfs ('/') in backup
INFO: including mount point mp0 ('/data') in backup
INFO: mode failure - some volumes do not support snapshots
INFO: trying 'suspend' mode instead
INFO: backup mode: suspend
INFO: ionice priority: 7
INFO: CT Name: Paperless-produktiv
INFO: including mount point rootfs ('/') in backup
INFO: including mount point mp0 ('/data') in backup
INFO: starting first sync /proc/1690577/root/ to /tmp/vzdumptmp2188048_109/
ERROR: rsync: [receiver] write failed on "/tmp/vzdumptmp2188048_109/var/lib/docker/overlay2/06cdf6493b9d357d850fd74fd1ff8f86db2053a71d82871d8eaad562820e163e/diff/usr/lib/x86_64-linux-gnu/libLLVM.so.19.1": No space left on device (28)
ERROR: rsync error: error in file IO (code 11) at receiver.c(381) [receiver=3.4.1]
ERROR: rsync: [sender] write error: Broken pipe (32)
ERROR: Backup of VM 109 failed - command 'rsync --stats -h -X -A --numeric-ids -aH --delete --no-whole-file --sparse --one-file-system --relative '--exclude=/tmp/?*' '--exclude=/var/tmp/?*' '--exclude=/var/run/?*.pid' /proc/1690577/root//./ /proc/1690577/root//./data /tmp/vzdumptmp2188048_109/' failed: exit code 11
INFO: Failed at 2026-05-09 22:04:48
cp: cannot create regular file '/mnt/pve/Lan30TB/dump/vzdump-lxc-109-2026_05_09-21_45_48.log': Permission denied
INFO: Backup job finished with errors
ERROR: could not notify via target `merlin-intern`: could not notify via endpoint(s): merlin-intern: Connection error: failed to lookup address information: Name or service not known
INFO: notified via target `mail-to-root`
TASK ERROR: job errors

Da scheinen ja gleich zwei Probleme vorzuliegen?
1.) No space left on device (28)
2.) '/mnt/pve/Lan30TB/dump/vzdump-lxc-109-2026_05_09-21_45_48.log': Permission denied

das ganze mit Ziel LAN24TB
Bash:
INFO: starting new backup job: vzdump 109 --node merlin --notes-template '{{guestname}}30TB' --notification-mode notification-system --fleecing 0 --compress zstd --storage Lan24TB --all 0 --mode snapshot --prune-backups 'keep-last=2'
INFO: Starting Backup of VM 109 (lxc)
INFO: Backup started at 2026-05-09 22:27:29
INFO: status = running
INFO: CT Name: Paperless-produktiv
INFO: including mount point rootfs ('/') in backup
INFO: including mount point mp0 ('/data') in backup
INFO: mode failure - some volumes do not support snapshots
INFO: trying 'suspend' mode instead
INFO: backup mode: suspend
INFO: ionice priority: 7
INFO: CT Name: Paperless-produktiv
INFO: including mount point rootfs ('/') in backup
INFO: including mount point mp0 ('/data') in backup
INFO: starting first sync /proc/1690577/root/ to /tmp/vzdumptmp2210164_109/
ERROR: rsync: [receiver] write failed on "/tmp/vzdumptmp2210164_109/var/lib/docker/overlay2/06cdf6493b9d357d850fd74fd1ff8f86db2053a71d82871d8eaad562820e163e/diff/usr/lib/x86_64-linux-gnu/libLLVM.so.19.1": No space left on device (28)
ERROR: rsync error: error in file IO (code 11) at receiver.c(381) [receiver=3.4.1]
ERROR: rsync: [sender] write error: Broken pipe (32)
ERROR: Backup of VM 109 failed - command 'rsync --stats -h -X -A --numeric-ids -aH --delete --no-whole-file --sparse --one-file-system --relative '--exclude=/tmp/?*' '--exclude=/var/tmp/?*' '--exclude=/var/run/?*.pid' /proc/1690577/root//./ /proc/1690577/root//./data /tmp/vzdumptmp2210164_109/' failed: exit code 11
INFO: Failed at 2026-05-09 22:53:45
INFO: Backup job finished with errors
ERROR: could not notify via target `merlin-intern`: could not notify via endpoint(s): merlin-intern: Connection error: failed to lookup address information: Name or service not known
INFO: notified via target `mail-to-root`
TASK ERROR: job errors

Hier offenbar (maßgeblich) nur das No space left on device (28) Problem. Ich meine mich zu erinnern, dass ein fehlgeschlagenes backup irgendwo liegen bleibt, und daher vielleicht das Platzproblem?

Vielen Dank für jeden Tipp!

Ach hier noch das log des letzten funktionierenden backups (LAN30TB mit "alterIP")
Bash:
INFO: starting new backup job: vzdump 109 --mailnotification always --notification-mode notification-system --compress zstd --quiet 1 --mode stop --prune-backups 'keep-last=5' --notes-template '{{guestname}}' --fleecing 0 --storage Lan30TB
INFO: Starting Backup of VM 109 (lxc)
INFO: Backup started at 2026-05-07 06:00:02
INFO: status = running
INFO: backup mode: stop
INFO: ionice priority: 7
INFO: CT Name: Paperless-produktiv
INFO: including mount point rootfs ('/') in backup
INFO: including mount point mp0 ('/data') in backup
INFO: stopping virtual guest
INFO: creating vzdump archive '/mnt/pve/Lan30TB/dump/vzdump-lxc-109-2026_05_07-06_00_02.tar.zst'
INFO: Total bytes written: 92550266880 (87GiB, 29MiB/s)
INFO: archive file size: 44.68GB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=5
INFO: removing backup 'Lan30TB:backup/vzdump-lxc-109-2026_05_02-02_00_00.tar.zst'
INFO: pruned 1 backup(s) not covered by keep-retention policy
INFO: restarting vm
INFO: guest is online again after 3458 seconds
INFO: Finished Backup of VM 109 (00:57:38)
INFO: Backup finished at 2026-05-07 06:57:40
INFO: Backup job finished successfully
ERROR: could not notify via target `merlin-intern`: could not notify via endpoint(s): merlin-intern: Connection error: failed to lookup address information: Name or service not known
INFO: notified via target `mail-to-root`
TASK OK
 
Last edited:
Die meldung deutet auf mangelnden Speicher auf dem root FS hin
ERROR: rsync: <span>[</span>receiver<span>]</span> <span>write</span> failed on <span>"/tmp/vzdumptmp2210164_109/var/lib/docker/overlay2/06cdf6493b9d357d850fd74fd1ff8f86db2053a71d82871d8eaad562820e163e/diff/usr/lib/x86_64-linux-gnu/libLLVM.so.19.1"

No space left on device
Kannst das einmal prüfen?
 
Das Problem mit den Zugriffsrechten habe ich mittlerweile mit Gemini gelöst (No Root Squash). Ich habe dann auch gleich mal die Empfehlung umgesetzt und ein
Bash:
rm -rf /tmp/vzdumptmp*
gemacht. Außerdem habe ich die
Bash:
tmpdir: /mnt/pve/Lan30TB/dump
in
Bash:
/etc/vzdump.conf
geändert. Ich versuche jetzt mal ob's geht.

Hier erster Zwischenstand:
Proxomox sagt:
Bash:
INFO: temporary directory is on NFS, disabling xattr and acl support, consider configuring a local tmpdir via /etc/vzdump.conf
wozu Gemini meint:
Kurzer Tipp: Falls du Docker im LXC nutzt, sind xattrs manchmal für bestimmte Storage-Treiber (overlay2) wichtig. Sollte der Container nach einem Restore (Wiederherstellung) Probleme machen, wissen wir, dass es an dieser Einstellung lag. Für das reine Sichern ist es erst einmal egal.
Das soll bedeuten, mach erstmal das update, ob hinterher ein restore geht ist zweitrangig?!
 
Last edited:
some volumes do not support snapshots
Ich würde mich auch hierrauf konzentrieren. Das ist der Grund warum du überhaupt den temporören Speicher benötigst.
Teile bitte
Bash:
cat /etc/pve/storage.cfg
pct config xxx 109
Vielelicht kann dein NAS ja auch PBS laufen lassen?
 
@Impact: Ich denke dass liegt daran, dass Root Disk und Mount Point des lxc auf HDD liegen?!
Bash:
cat /etc/pve/storage.cfg
dir: local
        path /var/lib/vz
        content iso,vztmpl,backup

lvmthin: local-lvm
        thinpool data
        vgname pve
        content images,rootdir

lvm: HDD-2-1
        vgname HDD-2-1
        content images,rootdir
        shared 0

lvm: HDD-2-2
        vgname HDD-2-2
        content rootdir,images
        shared 0

nfs: Lan24TB
        export /volume1/ProxmoxBackup
        path /mnt/pve/Lan24TB
        server 192.168.178.83
        content images,backup
        prune-backups keep-all=1

cifs: Media
        path /mnt/pve/Media
        server 192.168.178.83
        share NetBackup
        content images
        prune-backups keep-all=1
        subdir /Qdownload/UseNet
        username admin

nfs: Lan30TB
        export /volume1/ProxmoxBackup
        path /mnt/pve/Lan30TB
        server 192.168.178.84
        content iso,vztmpl,backup
        prune-backups keep-all=1

Bash:
arch: amd64
cores: 6
features: nesting=1
hostname: Paperless-produktiv
memory: 32000
mp0: HDD-2-2:vm-109-disk-1,mp=/data,backup=1,size=200G
net0: name=eth0,bridge=vmbr0,firewall=1,gw=192.168.178.1,hwaddr=XX:XX:XX:XX:XX:XX,ip=192.168.178.149/24,type=veth
onboot: 1
ostype: debian
rootfs: HDD-2-2:vm-109-disk-0,size=300G
swap: 12000
unprivileged: 1

Ich glaube, das Backup ist so riesig, weil ich Datenpartition von Paperless (das ist die lxc) zu groß gemacht habe.
Bash:
df -h /
Dateisystem                            Größe Benutzt Verf. Verw% Eingehängt auf
/dev/mapper/HDD--2--2-vm--109--disk--0  295G     62G  218G   23% /
 
@FlyByWire Ne. Das Problem ist dass du LVM anstatt LVM-Thin benutzt. Und ja PBS is Proxmox Backup Server. Hat nicht direkt was mit dem Problem zu tun, ich wollte es nur erwähnt haben. Ein Backup im Stop Modus wäre ein Workaround. Vielleicht mal probieren.