Kann Container aus Backup nicht zurückspielen: unable to restore CT - unable to detect disk size - please specify rootfs (size)

io2345

Member
Feb 25, 2024
13
3
8
Habe versucht, einen kleinen Container von Debian 12 auf 13 zu heben, hat aber nicht geklappt. Jetzt wollte ich den Container aus der nächtlichen Sicherung wiederherstellen. Klappt aber nicht, es kommt: "unable to restore CT - unable to detect disk size - please specify rootfs (size)".
So mache ich es: Ich stoppe den Container, gehe im Fenster des Containers auf Backup, wähle die oberste Datei (ist von heute frühmorgens) und dann auf Restore. Im sich öffnenden Fenster lasse ich alles wie voreingestellt und gehe auf Restore. Das ist doch die richtige Vorgehensweise? Ich wüsste auch gar nicht, wo ich die rootfs-Größe angeben könnte.
 
Ja, würde ich genau so sehen.
Speicher ist genug frei?
CT war wurklich schon down und aus?
Die sicherung sieht von der grösse her gut aus?
Gibt es noch eine weitere Sicherung zum restoren?
 
Geht mal zur Liste der Backups und selektiere eine konkrete Sicherung, durch anklicken. Oben in der Button-Reihe gibt es einen Knopf "Show Configuration".

Ein Container in meinem Cluster zeigt mir dort... die Konfiguration an, die zum Zeitpunkt der Sicherung aktiv war. Insbesondere enthält sie in meinem Fall folgende Zeile:

Code:
rootfs: local-zfs:subvol-2053-disk-0,size=32G

Und für Mount-Points in einem anderen Container:
Code:
mp12: tank:subvol-100-disk-13,mp=/srv/ucs/download,size=1000G

In beiden Fällen steht die Größe stumpf da drin. Findest du ähnliches vor? Falls nicht: poste mal die gesamte angezeigte "Configuration".

Disclaimer: ich nutze generell VMs, das sind Fragmente der beiden einzigen Container in meinem Cluster - ich habe also nicht viel Ahnung davon...
 
Configuration für eine der Sicherungen (es gibt fünf davon):

arch: amd64
cores: 1
features: nesting=1
hostname: nexa2mqtt
memory: 256
net0: name=eth0,bridge=vmbr0,firewall=1,hwaddr=BC:24:11:0C:9A:0B,type=veth
onboot: 1
ostype: debian
rootfs: local-lvm:vm-100-disk-0,mountoptions=lazytime
swap: 256
unprivileged: 1

Platzmäßig sieht's so aus:

1778218987060.png
 
rootfs: local-lvm:vm-100-disk-0,mountoptions=lazytime
Nun, ich habe noch niemals LVM (im PVE-Kontext) verwendet..., aber wie soll ein Restore die Größe erkennen? Die Fehlermeldung im ersten Post war ja auch "unable to restore CT - unable to detect disk size - please specify rootfs (size)". Und da das Volume ja vor Beginn des Restore zuerst angelegt werden muss, ist das wohl ein Problem.

Leider habe ich keine Ahnung, wie man die Konfiguration innerhalb des Backups manipulieren kann, um die Größe "einfach einzutragen", sorry.
 
Wenn es eine lokale Sicherung ist kann man einfach das Backupfile entpacken. Irgendwo unter /etc glaube war dann eine Datei wo diese Informationen zum Backup drin standen. Bitte einmal in der Doku schauen. Steht auf jeden Fall im Backup. Ach so, nach der Änderung muss das ganze natürlich wieder gebackt werden.
 
Oder halt
Bash:
pct restore 100 XXX:backup/vzdump-lxc-100-... --rootfs YYY --storage ZZZ
Du kannst den genauen Pfad via pvesm list ... und pvesm path ... finden.
 
Last edited:
  • Like
Reactions: io2345 and CoolTux
Versuche ich. YYY und ZZZ sind sicherlich die Größenangaben in MB, also 973.42 (kann das so ein krummer Wert sein???) und 256.00
XXX ist der Pfad, nehme ich an. Backup ist so eingestellt:
mp0: /mnt/NAS/Sicherungen,mp=/opt/iobroker/backups
Allerdings komme ich weder mit
pvesm list mp0 noch mit pvesm /mnt/NAS/Sicherungen oder auch dem Mountpoint weiter.
Hilfe :confused:
 
YYY ist die Größe der Festplatte. Ich würde hier 8 benutzen. Das ist Standard wenn man ein CT erstellt. ZZZ ist der Zielort. In deinem Fall local-lvm.
XXX ist die Referenz zum Backup Speicher. Die meisten PVE CLI Befehle haben TAB completion. Probiere zB. pvesm list <TAB>.
 
Last edited:
YYY ist die Größe der Festplatte. Ich würde hier 8 benutzen. Das ist Standard wenn man ein CT erstellt. ZZZ ist der Zielort. In deinem Fall local-lvm.
XXX ist die Referenz zum Backup Speicher. Die meisten PVE CLI Befehle haben TAB completion. Probiere zB. pvesm list <TAB>.
Die Tab-Taste lässt den Cursor leider nur genau ein Zeichen weiter hüpfen.
Lässt sich der Referenzpfad eventuell aus dem Backup von heute Morgen herauslesen?:

Code:
Header
Proxmox
Virtual Environment 9.1.9
Search
Node 'proxmox'

Server View
Logs
()
INFO: starting new backup job: vzdump --notification-mode notification-system --storage BackupNAS --notes-template '{{guestname}}' --mode snapshot --quiet 1 --node proxmox --fleecing 0 --prune-backups 'keep-last=3,keep-monthly=1,keep-weekly=2' --all 1 --compress zstd
INFO: filesystem type on dumpdir is 'cifs' -using /var/tmp/vzdumptmp2704184_100 for temporary files
INFO: Starting Backup of VM 100 (lxc)
INFO: Backup started at 2026-05-08 02:10:13
INFO: status = running
INFO: CT Name: nexa2mqtt
INFO: including mount point rootfs ('/') in backup
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
  Logical volume "snap_vm-100-disk-0_vzdump" created.
INFO: creating vzdump archive '/mnt/pve/BackupNAS/dump/vzdump-lxc-100-2026_05_08-02_10_04.tar.zst'
INFO: Total bytes written: 897269760 (856MiB, 124MiB/s)
INFO: archive file size: 293MB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=3, keep-monthly=1, keep-weekly=2
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-100-2026_02_22-02_10_01.tar.zst'
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-100-2026_05_05-02_10_00.tar.zst'
INFO: pruned 2 backup(s) not covered by keep-retention policy
INFO: cleanup temporary 'vzdump' snapshot
  Logical volume "snap_vm-100-disk-0_vzdump" successfully removed.
INFO: Finished Backup of VM 100 (00:00:22)
INFO: Backup finished at 2026-05-08 02:10:26
INFO: filesystem type on dumpdir is 'cifs' -using /var/tmp/vzdumptmp2704184_101 for temporary files
INFO: Starting Backup of VM 101 (lxc)
INFO: Backup started at 2026-05-08 02:10:26
INFO: status = running
INFO: CT Name: jdownloader2
INFO: including mount point rootfs ('/') in backup
INFO: excluding bind mount point mp0 ('/mnt/NAS') from backup (not a volume)
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
  Logical volume "snap_vm-101-disk-0_vzdump" created.
INFO: creating vzdump archive '/mnt/pve/BackupNAS/dump/vzdump-lxc-101-2026_05_08-02_10_26.tar.zst'
INFO: Total bytes written: 1419939840 (1.4GiB, 115MiB/s)
INFO: archive file size: 433MB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=3, keep-monthly=1, keep-weekly=2
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-101-2025_12_01-03_03_33.tar.zst'
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-101-2026_02_22-02_10_27.tar.zst'
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-101-2026_05_05-02_10_17.tar.zst'
INFO: pruned 3 backup(s) not covered by keep-retention policy
INFO: cleanup temporary 'vzdump' snapshot
  Logical volume "snap_vm-101-disk-0_vzdump" successfully removed.
INFO: Finished Backup of VM 101 (00:00:17)
INFO: Backup finished at 2026-05-08 02:10:43
INFO: filesystem type on dumpdir is 'cifs' -using /var/tmp/vzdumptmp2704184_102 for temporary files
INFO: Starting Backup of VM 102 (lxc)
INFO: Backup started at 2026-05-08 02:10:43
INFO: status = running
INFO: CT Name: influxdb
INFO: including mount point rootfs ('/') in backup
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
  Logical volume "snap_vm-102-disk-0_vzdump" created.
INFO: creating vzdump archive '/mnt/pve/BackupNAS/dump/vzdump-lxc-102-2026_05_08-02_10_43.tar.zst'
INFO: Total bytes written: 2146754560 (2.0GiB, 172MiB/s)
INFO: archive file size: 698MB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=3, keep-monthly=1, keep-weekly=2
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-102-2025_12_01-03_08_09.tar.zst'
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-102-2026_02_22-02_10_42.tar.zst'
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-102-2026_05_05-02_10_37.tar.zst'
INFO: pruned 3 backup(s) not covered by keep-retention policy
INFO: cleanup temporary 'vzdump' snapshot
  Logical volume "snap_vm-102-disk-0_vzdump" successfully removed.
INFO: Finished Backup of VM 102 (00:00:20)
INFO: Backup finished at 2026-05-08 02:11:03
INFO: filesystem type on dumpdir is 'cifs' -using /var/tmp/vzdumptmp2704184_103 for temporary files
INFO: Starting Backup of VM 103 (lxc)
INFO: Backup started at 2026-05-08 02:11:03
INFO: status = running
INFO: CT Name: ioBroker8
INFO: including mount point rootfs ('/') in backup
INFO: excluding bind mount point mp0 ('/opt/iobroker/backups') from backup (not a volume)
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
  Logical volume "snap_vm-103-disk-0_vzdump" created.
INFO: creating vzdump archive '/mnt/pve/BackupNAS/dump/vzdump-lxc-103-2026_05_08-02_11_03.tar.zst'
INFO: Total bytes written: 5436846080 (5.1GiB, 136MiB/s)
INFO: archive file size: 2.33GB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=3, keep-monthly=1, keep-weekly=2
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-103-2025_12_01-03_14_30.tar.zst'
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-103-2026_02_22-02_11_01.tar.zst'
INFO: removing backup 'BackupNAS:backup/vzdump-lxc-103-2026_05_05-02_10_56.tar.zst'
INFO: pruned 3 backup(s) not covered by keep-retention policy
INFO: cleanup temporary 'vzdump' snapshot
  Logical volume "snap_vm-103-disk-0_vzdump" successfully removed.
INFO: Finished Backup of VM 103 (00:00:49)
INFO: Backup finished at 2026-05-08 02:11:52
INFO: Backup job finished successfully
INFO: skipping disabled matcher 'default-matcher'
TASK OK
 
Probier mal pvesm list BackupNAS. Ich nehme an der Pfad ist BackupNAS:backup/vzdump-lxc-103-2026_05_08-02_11_03.tar.zst aber warum raten.
Vielleicht funktioniert ein richtiger SSH Client besser.
 
Aha, pvesm list BackupNAS funktioniert.

Hab den kompletten Befehl zusammengesetzt, klappt zwar nicht auf 100 (da müsste ich den Container vorher löschen), aber liegt jetzt erst mal auf 104:

pct restore 104 BackupNAS:backup/vzdump-lxc-100-2026_05_07-02_10_00.tar.zst --rootfs 8 --storage local-lvm

8GB Rootdisk ist für das winzige Containerchen zwar eigentlich Overkill, aber Platz ist ja da.
Danke für die Unterstützung an alle!
 
  • Like
Reactions: Impact
local-lvm bzw data ist ein Thin Volume. Wenn richtig konfiguriert macht es also nicht so viel etwas mehr zuzuweisen. Es sollte nur pro Gast nicht mehr sein als du insgesamt hast. Du kannst natürlich auch weniger geben. Das macht manche Aktionen auch schneller da weniger Daten abzugleichen sind.
 
Last edited: