lxc backup fails

drnicolas

Renowned Member
Dec 8, 2010
174
7
83
Ständig schlägt ein Backup eines Containers fehl:
Wie so oft "no space left on device"

Woran kann das liegen=?

Code:
902: 2025-04-23 01:03:30 INFO: Starting Backup of VM 902 (lxc)
902: 2025-04-23 01:03:30 INFO: status = running
902: 2025-04-23 01:03:30 INFO: CT Name: DMS
902: 2025-04-23 01:03:30 INFO: including mount point rootfs ('/') in backup
902: 2025-04-23 01:03:30 INFO: including mount point mp0 ('/HDD') in backup
902: 2025-04-23 01:03:30 INFO: mode failure - some volumes do not support snapshots
902: 2025-04-23 01:03:30 INFO: trying 'suspend' mode instead
902: 2025-04-23 01:03:30 INFO: backup mode: suspend
902: 2025-04-23 01:03:30 INFO: ionice priority: 7
902: 2025-04-23 01:03:30 INFO: CT Name: DMS
902: 2025-04-23 01:03:30 INFO: including mount point rootfs ('/') in backup
902: 2025-04-23 01:03:30 INFO: including mount point mp0 ('/HDD') in backup
902: 2025-04-23 01:03:30 INFO: starting first sync /proc/1267/root/ to /var/tmp/vzdumptmp1130476_902
902: 2025-04-23 01:05:51 ERROR: rsync: [receiver] write failed on "/var/tmp/vzdumptmp1130476_902/var/lib/docker/overlay2/dfa1903596f23fafee72ddef635af719353cd4a0c6e18ffd314964e6409b3849/diff/opt/google/chrome/chrome": No space left on device (28)
902: 2025-04-23 01:05:51 ERROR: rsync error: error in file IO (code 11) at receiver.c(381) [receiver=3.2.7]
902: 2025-04-23 01:05:51 ERROR: rsync: [sender] write error: Broken pipe (32)
902: 2025-04-23 01:06:00 ERROR: Backup of VM 902 failed - command 'rsync --stats -h -X -A --numeric-ids -aH --delete --no-whole-file --sparse --one-file-system --relative '--exclude=/tmp/?*' '--exclude=/var/tmp/?*' '--exclude=/var/run/?*.pid' /proc/1267/root//./ /proc/1267/root//./HDD /var/tmp/vzdumptmp1130476_902' failed: exit code 11
 
Das wäre die Ausgabe:

Code:
arch: amd64
cores: 1
description: IP 192.168.0.110%0A
features: nesting=1
hostname: DMS
memory: 512
mp0: DATASSD:vm-902-disk-1,mp=/HDD,backup=1,size=60G
net0: name=eth0,bridge=vmbr0,firewall=1,hwaddr=BC:24:11:F6:17:30,ip=dhcp,type=veth
onboot: 1
ostype: debian
rootfs: DATASSD:vm-902-disk-0,size=34G
startup: order=1,up=60
swap: 16384
unprivileged: 1
Filesystem            Size  Used Avail Use% Mounted on
udev                   16G     0   16G   0% /dev
tmpfs                 3.2G  3.5M  3.2G   1% /run
/dev/mapper/pve-root   32G   11G   19G  36% /
tmpfs                  16G   66M   16G   1% /dev/shm
tmpfs                 5.0M     0  5.0M   0% /run/lock
/dev/fuse             128M   24K  128M   1% /etc/pve
tmpfs                 3.2G     0  3.2G   0% /run/user/0
 
Deine virtuelle Festplatten haben zusammen über 90G aber dein System hat nur 19G frei für die temporären Daten. Für nicht-Schnapschuss Backups brauchst du je nach realer Datenmenge mehr Platz im vzdump tmpdir.
Kannst du noch folgendes teilen? Ich würde gerne rausfinden wieso Schnappschüsse nicht funktionieren.
Bash:
cat /etc/pve/storage.cfg
lsblk -e230 -o +FSTYPE,LABEL
 
Last edited:
die betrefffende VM enthält ausgerechnet paperless-NGX.
Derzeit werden dort nur PDF-Versionen von Rechnungen archiviert. Persepktivisch sollen da auch DSGVO-Bestätigungen

Code:
dir: local
        path /var/lib/vz
        content iso,vztmpl,backup

lvmthin: local-lvm
        thinpool data
        vgname pve
        content images,rootdir

lvm: DATASSD
        vgname DATASSD
        content rootdir,images
        nodes pve-X10SAT
        shared 0

pbs: BACKUP-T6
        datastore BACKUP-PBS
        server 192.168.1.251
        content backup
        fingerprint d5:68:95:73:7e:cc:e6:f2:cc:73:81:0d:cf:0b:9d:3e:bb:20:cb:aa:99:4b:dc:5c:d3:65:b2:8b:ba:78:4f:22
        nodes pve-X10SAT
        prune-backups keep-all=1
        username root@pam

lvm: WD40
        vgname WD40
        content images,rootdir
        nodes pve-X10SAT
        shared 0

NAME                       MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS FSTYPE      LABEL
sdb                          8:16   0 111.8G  0 disk                         
├─sdb1                       8:17   0  1007K  0 part                         
├─sdb2                       8:18   0     1G  0 part             vfat       
└─sdb3                       8:19   0 110.8G  0 part             LVM2_member
  ├─pve-swap               252:0    0    32G  0 lvm  [SWAP]      swap       
  ├─pve-root               252:1    0  31.7G  0 lvm  /           ext4       
  ├─pve-data_tmeta         252:2    0     1G  0 lvm                         
  │ └─pve-data-tpool       252:15   0  31.3G  0 lvm                         
  │   └─pve-data           252:16   0  31.3G  1 lvm                         
  └─pve-data_tdata         252:3    0  31.3G  0 lvm                         
    └─pve-data-tpool       252:15   0  31.3G  0 lvm                         
      └─pve-data           252:16   0  31.3G  1 lvm                         
sdc                          8:32   0   3.6T  0 disk             LVM2_member
sr0                         11:0    1 679.3M  0 rom                         
sr1                         11:1    1 472.1M  0 rom                         
nvme0n1                    259:0    0 953.9G  0 disk             LVM2_member
├─DATASSD-vm--910--disk--0 252:4    0    15G  0 lvm              ext4       
├─DATASSD-vm--901--disk--0 252:5    0    80G  0 lvm                         
├─DATASSD-vm--901--disk--1 252:6    0     2G  0 lvm                         
├─DATASSD-vm--906--disk--0 252:7    0    52G  0 lvm                         
├─DATASSD-vm--902--disk--0 252:8    0    34G  0 lvm              ext4       
├─DATASSD-vm--902--disk--1 252:9    0    60G  0 lvm              ext4       
├─DATASSD-vm--908--disk--0 252:12   0    16G  0 lvm              ext4       
├─DATASSD-vm--900--disk--0 252:13   0   127G  0 lvm                         
└─DATASSD-vm--100--disk--0 252:14   0    20G  0 lvm              ext4
 
Sieht aus als wurde die Platte mit LVM anstatt LVM-Thin formattiert: https://pve.proxmox.com/pve-docs/pve-admin-guide.html#_storage_types
Man könnte eventuell einen thin pool darauf erstellen und via Datacenter > Storage > Add > LVM-Thin hinzufügen: https://pve.proxmox.com/pve-docs/pve-admin-guide.html#_create_a_lvm_thin_pool

Danach können die virtuellen Platten darauf verschoben werden.
1745406231955.png
1745406501199.png

Man könnte auch ein volume auf der Platte anlegen speziell für den tmpdir: https://pve.proxmox.com/pve-docs/pv..._lv_for_span_class_monospaced_var_lib_vz_span
Dieses muss natürlich erst noch formatiert und gemounted werden. ZFS ist da sehr viel einfacher und flexibler.

Ich bin generell nicht der Freund davon local-lvm zu entfernen aber wenn es nicht benutzt wird könnte dies hier eine Option sein damit local vergrößert werden kann. Es gibt hier sehr viele potentielle Optionen.
 
Last edited: