"TASK ERROR: VM is locked (backup)" und kann nicht entsperrt werden

cc13

New Member
Jul 3, 2025
3
0
1
Hallo,

ich habe Proxmox auf einem kleinen Lenovo laufen und darauf ein paar LXC und VMs. Heute Morgen habe ich von einer der VMs ein Backup anstossen wollen und nicht gesehen, dass der Plattenplatz nicht reicht. Also lief das Backup auf Fehler:


Code:
HeaderVirtual Environment 8.4.1Virtual Machine 106 (DietPi) on node 'pve'(backup)No TagsLogs()INFO: starting new backup job: vzdump 106 --storage local --compress zstd --notes-template '{{guestname}}' --remove 0 --notification-mode auto --mode snapshot --node pve
INFO: Starting Backup of VM 106 (qemu)
INFO: Backup started at 2025-07-03 08:25:14
INFO: status = running
INFO: VM Name: DietPi
INFO: include disk 'scsi0' 'local-lvm:vm-106-disk-0' 132G
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: creating vzdump archive '/var/lib/vz/dump/vzdump-qemu-106-2025_07_03-08_25_14.vma.zst'
INFO: started backup task '84fbf192-3df4-4d8a-ac7c-2c0d21141ca5'
INFO: resuming VM again
INFO: 0% (493.0 MiB of 132.0 GiB) in 3s, read: 164.3 MiB/s, write: 160.7 MiB/s
INFO: 1% (1.4 GiB of 132.0 GiB) in 10s, read: 138.8 MiB/s, write: 134.1 MiB/s
INFO: 2% (2.7 GiB of 132.0 GiB) in 19s, read: 143.4 MiB/s, write: 142.7 MiB/s
INFO: 3% (4.0 GiB of 132.0 GiB) in 27s, read: 164.0 MiB/s, write: 163.8 MiB/s
INFO: 4% (5.4 GiB of 132.0 GiB) in 36s, read: 157.9 MiB/s, write: 156.7 MiB/s
INFO: 5% (6.7 GiB of 132.0 GiB) in 45s, read: 149.0 MiB/s, write: 145.7 MiB/s
INFO: 6% (8.0 GiB of 132.0 GiB) in 54s, read: 146.2 MiB/s, write: 144.1 MiB/s
INFO: 7% (9.3 GiB of 132.0 GiB) in 1m 4s, read: 135.9 MiB/s, write: 132.7 MiB/s
INFO: 8% (10.6 GiB of 132.0 GiB) in 1m 13s, read: 153.5 MiB/s, write: 150.4 MiB/s
INFO: 9% (11.9 GiB of 132.0 GiB) in 1m 23s, read: 134.5 MiB/s, write: 134.4 MiB/s
INFO: 10% (13.4 GiB of 132.0 GiB) in 1m 32s, read: 160.3 MiB/s, write: 157.3 MiB/s
INFO: 11% (14.6 GiB of 132.0 GiB) in 1m 41s, read: 140.6 MiB/s, write: 138.0 MiB/s
INFO: 12% (15.9 GiB of 132.0 GiB) in 1m 47s, read: 223.5 MiB/s, write: 220.2 MiB/s
INFO: 13% (17.2 GiB of 132.0 GiB) in 1m 54s, read: 188.5 MiB/s, write: 185.6 MiB/s
INFO: 14% (18.5 GiB of 132.0 GiB) in 2m 5s, read: 122.9 MiB/s, write: 112.7 MiB/s
INFO: 15% (19.9 GiB of 132.0 GiB) in 2m 16s, read: 127.5 MiB/s, write: 111.9 MiB/s
INFO: 16% (21.2 GiB of 132.0 GiB) in 2m 28s, read: 110.3 MiB/s, write: 107.5 MiB/s
INFO: 17% (22.4 GiB of 132.0 GiB) in 2m 40s, read: 108.4 MiB/s, write: 83.4 MiB/s
INFO: 18% (23.9 GiB of 132.0 GiB) in 2m 50s, read: 149.7 MiB/s, write: 147.9 MiB/s
INFO: 19% (25.1 GiB of 132.0 GiB) in 3m, read: 123.6 MiB/s, write: 114.4 MiB/s
INFO: 20% (26.4 GiB of 132.0 GiB) in 3m 9s, read: 147.8 MiB/s, write: 142.9 MiB/s
INFO: 21% (27.8 GiB of 132.0 GiB) in 3m 19s, read: 141.4 MiB/s, write: 139.2 MiB/s
INFO: 22% (29.2 GiB of 132.0 GiB) in 3m 33s, read: 102.8 MiB/s, write: 96.6 MiB/s
INFO: 23% (30.4 GiB of 132.0 GiB) in 3m 45s, read: 101.8 MiB/s, write: 98.3 MiB/s
zstd: error 70 : Write error : cannot write block : No space left on device
INFO: 23% (30.9 GiB of 132.0 GiB) in 3m 52s, read: 74.1 MiB/s, write: 73.8 MiB/s
ERROR: vma_queue_write: write error - Broken pipe
INFO: aborting backup job
INFO: resuming VM again
unable to delete old temp file: Input/output error
ERROR: Backup of VM 106 failed - vma_queue_write: write error - Broken pipe
INFO: Failed at 2025-07-03 08:29:07
INFO: Backup job finished with errors
INFO: notified via target \mail-to-root`TASK ERROR: job errors`

Weil ich nicht gleich den fehlenden Plattenplatz bemerkt habe, habe ich das Backup gleich nochmal angestossen. Natürlich auch mit einem Fehler. Also habe ich alte Backups gelöscht, um wieder Platz zu schaffen. Leider ist die VM jetzt im Status "Locked (Backup)". Ich wollte also die VM entsperren:


Code:
 root@pve:/etc/pve/nodes/pve/qemu-server# qm unlock 106
unable to open file '/etc/pve/nodes/pve/qemu-server/106.conf.tmp.41458' - Input/output error
root@pve:/etc/pve/nodes/pve/qemu-server# ls -al
total 4
drwxr-xr-x 2 root www-data 0 Jun 15 2024 .
drwxr-xr-x 2 root www-data 0 Jun 15 2024 ..
-rw-r----- 1 root www-data 398 Jun 19 2024 100.conf
-rw-r----- 1 root www-data 556 Jun 10 07:55 102.conf
-rw-r----- 1 root www-data 445 Jun 27 2024 102.conf_20240627
-rw-r----- 1 root www-data 396 Jul 5 2024 103.conf
-rw-r----- 1 root www-data 419 Jul 19 2024 104.conf
-rw-r----- 1 root www-data 434 Jul 3 08:25 106.conf
-rw-r----- 1 root www-data 0 Jul 3 08:29 106.conf.tmp.26052
-rw-r----- 1 root www-data 853 Dec 8 2024 110.conf

Die Datei, auf die sich die Fehlermeldung bezieht, wird gar nicht aufgeführt. Neu starten kann ich die VM auch nicht, in diesem Zustand. Hat jemand eine Idee, was ich noch machen kann? Was passiert, wenn ich den Proxmox Host neu starte? Ich möchte vermeiden, dass ich in einen inkonsistenten Zustand vom Host gerate.

Hier noch ein df:


Code:
root@pve:~# df -h
Filesystem                 Size  Used Avail Use% Mounted on
udev                        16G     0   16G   0% /dev
tmpfs                      3.2G  3.6M  3.2G   1% /run
/dev/mapper/pve-root        94G   55G   35G  61% /
tmpfs                       16G   34M   16G   1% /dev/shm
tmpfs                      5.0M     0  5.0M   0% /run/lock
/dev/nvme1n1p2            1022M   12M 1011M   2% /boot/efi
/dev/fuse                  128M   24K  128M   1% /etc/pve
//192.168.0.226/proxshare  985G  368G  617G  38% /mnt/lxc_shares/nas_rwx
//192.168.0.226/proxshare  985G  368G  617G  38% /mnt/filme
tmpfs                      3.2G     0  3.2G   0% /run/user/0
 
Habe ich, siehe meinen ersten Beitrag. Und das Ergebnis ist eine Fehlermeldung auf eine .tmp Datei, die nicht existiert.
 
Habe ich, siehe meinen ersten Beitrag. Und das Ergebnis ist eine Fehlermeldung auf eine .tmp Datei, die nicht existiert.
Sorry, so weit hatte er mir das auf dem Handy gar nicht angezeigt.
Da dort deine Config liegt und ein tmp FIle ohne Inhalt, ist wohl etwas kaputt gegangen. Ich habe das noch nicht gesehen, aber ich würde erst einmal versuchen das tmp File zu löschen. Dann sollte er ja die original Configdatei nutzen.
 
Dast tmp File ließ sich nicht löschen, es wurde dabei immer ein nicht vorhandenes File angemerkt/gesucht.
 
deine backups liegen auf derselben festplatte bzw. partition wie der rest des systems.. d.h. dir ist kurzfristig der platz auf / ausgegangen. vermutlich ist dadurch die DB hinter /etc/pve read-only gegangen..

versuch mal folgendes:

Code:
systemctl restart pve-cluster

dann sollte das unlock hoffentlich wieder gehen (vorrausgesetzt deine platte ist nicht schon wieder voll ;)