Proxmox VE 8.4.1 - Restore Failed to Load Boot0003 nach Restore/Backup

DaruRu

New Member
Dec 1, 2025
4
0
1
Hallo zusammen, ich habe im Forum gesucht und leider nicht fündig geworden. Ich habe lange keinen Beitrag mehr in einem Forum verfasst, doch jetzt bin ich mit meinem Latein am ende und hoffe das ihr mir helfen könnt.

Die Situation:

Wir haben auf dem Server eine Windows 11 Maschine laufen, diese läuft Problemlos mit TPM-Status und EFI-Disk.
Proxmox boot Fehler2.png

Jetzt das Problem, egal ob ich das Backup auf Verzeichnis oder NFS speichere und wiederherstellen will, ob als neue Maschine oder in die VMID der Ursprungs-Maschine zurückspiele, bei jedem Versuch bekomme ich diese Meldung:
Proxmox boot Fehler1.png

Ich habe viel in der GUI versucht, leider erfolglos.
Kennt jemand dieses Problem, ich würde mich über helfende Ratschläge sehr freuen.
Die Optionen der Maschine die Gesichert wurde sieht wie folgt aus.

Proxmox boot Fehler3.png

Viele Grüße DaruRu
 
Mich würde ein qm config VMID der alten funktionierenden und der wiederhergestellten nicht funktionierenden VM interessieren.
 
Hallo Impact,

Ursprungs Maschine die auf dem Proxmox installiert wurde qm config :

Code:
root@pve:~# qm config 100
bios: ovmf
boot: order=scsi0;ide0;net0
cores: 8
cpu: x86-64-v2-AES
ide0: local:iso/virtio-win-0.1.271.iso,media=cdrom,size=709474K
machine: pc-q35-9.2+pve1
memory: 32176
meta: creation-qemu=9.2.0,ctime=1764592499
name: Controlling-VM
net0: virtio=BC:24:11:15:80:87,bridge=vmbr0,firewall=1
numa: 0
ostype: win11
scsi0: RAID5_OS:vm-100-disk-1,iothread=1,size=400G
scsihw: virtio-scsi-single
smbios1: uuid=cdc264e7-37ad-44d6-9717-85c77c832011
sockets: 1
vmgenid: 6c3722ca-5fb5-4e2d-a4ec-934d6b4f435a

Restore/zurückspielen qm config:

Code:
root@pve:~# qm config 106
bios: ovmf
boot: order=scsi0;ide0;net0
cores: 8
cpu: x86-64-v2-AES
ide0: local:iso/virtio-win-0.1.271.iso,media=cdrom,size=709474K
machine: pc-q35-9.2+pve1
memory: 32176
meta: creation-qemu=9.2.0,ctime=1764592499
name: Controlling-VM
net0: virtio=BC:24:11:15:80:87,bridge=vmbr0,firewall=1
numa: 0
ostype: win11
scsi0: RAID5_OS:vm-106-disk-0,iothread=1,size=400G
scsihw: virtio-scsi-single
smbios1: uuid=cdc264e7-37ad-44d6-9717-85c77c832011
sockets: 1
vmgenid: f6355bc0-515b-483b-9064-ab5c964f4b01



Ich nahm bis eben an, das es ausschließlich etwas mit TPM oder dem UEFI an sich zutun haben muss.
Die Maschinen sind noch alle Test's, daher habe ich bereits einiges umgestellt und getestet.
z.B habe ich auf der Original Maschine Secureboot deaktiviert, die Disks die TPM-Status und UEFI gelöscht, und die Original Maschine kann Neu starten Herunterfahren und wieder normal starten. Naiv wie ich bin davon dann ein Backup gemacht in der Hoffnung auf den Sieg, leider nein.

Bei jedem Backup was ich versuche zu machen passiert dieser Fehler aktuell.

Original VM:
Bios Gut.png

Restore VM:
Bios schlecht.png

Der Windows Bootmanager ist nachdem restore einfach nicht da, ein Umstellen der VM Hardware hat nichts gebracht, also wohl kein Treiber Problem nehme ich an.
 
Wurde das Backup mit Boardmitteln oder einem externen Tool gemacht?
Wie sieht den die Systemplatte unter Windows aus?

Wurde auch schon eine Reparatur von Windows durchgeführt (bsp. Setup CD)?
 
Last edited:
  • Like
Reactions: DaruRu
Hmm. Was sagt cat /etc/pve/storage.cfg und pveversion -v? Ich habe das gerade mal probiert und meine Windows 11 VM gelöscht und wiederhergestellt. Der Boot Manager ist nach wie vor vorhanden und ich kann ganz normal booten

1764612306379.png
Meine Config sieht so aus und Der Speicher ist ZFS falls dir das hilft.
Code:
agent: 1,fstrim_cloned_disks=1
audio0: device=intel-hda,driver=spice
balloon: 4096
bios: ovmf
boot: order=scsi0;ide2
cores: 4
cpu: EPYC-Rome-v3
efidisk0: nvmezfs:vm-109-disk-0,efitype=4m,ms-cert=2023,pre-enrolled-keys=1,size=1M
ide2: none,media=cdrom
machine: pc-q35-7.2
memory: 8192
meta: creation-qemu=7.2.0,ctime=1680491728
name: Windows11
net0: virtio=3E:42:17:6B:68:63,bridge=vmbr0,firewall=1
numa: 0
ostype: win11
scsi0: nvmezfs:vm-109-disk-1,discard=on,iothread=1,size=64G,ssd=1
scsihw: virtio-scsi-single
smbios1: uuid=506e4710-a274-4ad1-bbbd-a9290127f1bf
sockets: 1
tablet: 1
tags: desktop
tpmstate0: nvmezfs:vm-109-disk-2,size=4M,version=v2.0
vga: qxl
vmgenid: 5c47fe56-d3f4-40b7-85ab-77a07bdf407b
Ich habe es mit PBS und mit local (Directory) getestet und kann das Problem nicht reproduzieren.
 
Last edited:
  • Like
Reactions: DaruRu
@ThoSo
Die Backups wurden ausschließlich mit Boardmitteln über GUI und Shell versucht, leider erfolglos, der Windows Bootloader fehlt jedes mal sobald das Backup restored wurde und macht die VM und die komplette Sicherung irgendwie schwer.
Eine Reparatur des Bootloaders habe ich über das Windows CLI versucht jedoch kann Diskpart keine Disk finden.

@Impact
Auf deinen Vorschlag hin habe ich es erstmal mit einem ZFS Speicher für die Backups versucht aber leider komme ich auf exakt das selbe Ergebnis

Storagecfg.png
Die Storage.cfg gibt zeigt folgendes.


Die Version's angabe

Code:
root@pve:~# pveversion -v
proxmox-ve: 8.4.0 (running kernel: 6.8.12-9-pve)
pve-manager: 8.4.1 (running version: 8.4.1/2a5fa54a8503f96d)
proxmox-kernel-helper: 8.1.1
proxmox-kernel-6.8: 6.8.12-9
proxmox-kernel-6.8.12-9-pve-signed: 6.8.12-9
ceph-fuse: 17.2.8-pve2
corosync: 3.1.9-pve1
criu: 3.17.1-2+deb12u1
frr-pythontools: 10.2.2-1+pve1
glusterfs-client: 10.3-5
ifupdown2: 3.2.0-1+pmx11
ksm-control-daemon: 1.5-1
libjs-extjs: 7.0.0-5
libknet1: 1.30-pve2
libproxmox-acme-perl: 1.6.0
libproxmox-backup-qemu0: 1.5.1
libproxmox-rs-perl: 0.3.5
libpve-access-control: 8.2.2
libpve-apiclient-perl: 3.3.2
libpve-cluster-api-perl: 8.1.1
libpve-cluster-perl: 8.1.1
libpve-common-perl: 8.3.1
libpve-guest-common-perl: 5.2.2
libpve-http-server-perl: 5.2.2
libpve-network-perl: 0.11.2
libpve-rs-perl: 0.9.4
libpve-storage-perl: 8.3.6
libspice-server1: 0.15.1-1
lvm2: 2.03.16-2
lxc-pve: 6.0.0-1
lxcfs: 6.0.0-pve2
novnc-pve: 1.6.0-2
proxmox-backup-client: 3.4.2-1
proxmox-backup-file-restore: 3.4.2-1
proxmox-firewall: 0.7.1
proxmox-kernel-helper: 8.1.1
proxmox-mail-forward: 0.3.3
proxmox-mini-journalreader: 1.5
proxmox-offline-mirror-helper: 0.6.7
proxmox-widget-toolkit: 4.3.11
pve-cluster: 8.1.1
pve-container: 5.2.6
pve-docs: 8.4.0
pve-edk2-firmware: 4.2025.02-3
pve-esxi-import-tools: 0.7.4
pve-firewall: 5.1.1
pve-firmware: 3.15-4
pve-ha-manager: 4.0.7
pve-i18n: 3.4.5
pve-qemu-kvm: 9.2.0-5
pve-xtermjs: 5.5.0-2
qemu-server: 8.3.13
smartmontools: 7.3-pve1
spiceterm: 3.3.0
swtpm: 0.8.0+pve1
vncterm: 1.8.0
zfsutils-linux: 2.2.7-pve2
root@pve:~#


Da mir leider die Ideen ausgehen, woran das liegen kann oder was ich dagegen unternehmen könnte, habe ich die VM nochmal direkt nachdem Installieren und 5 Minuten Laufzeit gesichert, zurückgespielt und wollte dort dann eine neu Installation durchführen, jedoch geht das ebenfalls nicht.
Neuinstallation1.png
Neuinstallation2.png
Wieso ich das versucht habe, kann ich nur mit Verzweiflung benennen, jedoch die 300G Disk wird als 2TB erkannt nachdem ich die VirtIO treiber geladen habe und eine Installation ist ohne das Löschen der Partition wohl nicht möglich.

Das Löschen habe ich mal gelassen, da ich nicht weiß was das für eine Speicher Disk ist.

Ich werde noch mal eine VM nach den Settings die du oben gepostet hast aufsetzen und testen.
Sowohl das Migrieren von Citrix zu Proxmox als auch das Zurückspielen der Backups (die auf dem PVE erstellt wurden) scheinen alle dieses Problem zu haben. Ich teste heute Abend nochmal ein Linux und berichte euch.


Vielen Dank für eure Zeit und euer Wissen, ich bleib am Ball.

Edit: ich musste jetzt feststellen das auch Linux (Debian 12), nicht wiederhergestellt werden kann aus dem Backup...
Edit2: Eine VM zu Klonen, geht ebenfalls nicht :(
Linux Restore.png
 
Last edited:
Speicher hast genug frei (df -h) ?

Wie ist denn da die Hardware aufgesetzt - lt. deiner Config hast du einen Datenträger "RAID5_OS".
Ist das nur ein Name, ein Hardware Raid 5? Welches Dateisystem? Hardware Raid und ZFS schließen sich komplett aus!

In deinem Screenshot der Console steht auch EXT4-FS readonly (?)
Das schein alles etwas strubbelig zu sein - mir scheint, das Problem kommt nicht aus den VMs, wenn es mit Debian auch nicht hinhaut!

Am besten einmal den Server genau in Augenschein nehmen - evtl hier mal ein paar Hardware-Eckdaten rüberreichen.
 
Last edited:
Hardware Raid und ZFS schließen sich komplett aus!
Bitte nicht Pauschal so hinstellen. Hardware Raid und ZFS sollte man nicht machen, ja. Außer man hat Ahnung von beidem, dann geht das schon, natürlich mit einigen Limitierungen.
 
Da mir leider die Ideen ausgehen, woran das liegen kann oder was ich dagegen unternehmen könnte, habe ich die VM nochmal direkt nachdem Installieren und 5 Minuten Laufzeit gesichert, zurückgespielt und wollte dort dann eine neu Installation durchführen, jedoch geht das ebenfalls nicht.
View attachment 93560
View attachment 93561
Wieso ich das versucht habe, kann ich nur mit Verzweiflung benennen, jedoch die 300G Disk wird als 2TB erkannt nachdem ich die VirtIO treiber geladen habe und eine Installation ist ohne das Löschen der Partition wohl nicht möglich.
Das sieht so aus, als wenn in deiner 300G Disk eine 2TB Partitionstabelle liegt. Das ist kein Fehler im Proxmox sondern irgendwoher kommt die Partitionstabelle, aber die gehört wohl nicht zu der 300GB Disk.
Ich kann ganz schwer nachvollziehen, was bei dir schief läuft.
Zuerst würde ich mal schauen ob du bei irgend einer VM eine 2TB MBR Partition hast. Dann hätten wir schon mal eine Idee wo die Informationen herkommen könnten und dann kann man weiter suchen.
 
Erst einmal danke an alle die mir so tatkräftig versuchen zu helfen, leider bin ich heute nicht zu viel gekommen.
Der Fehler steckt wohl tatsächlich im Detail welches durch Unwissenheit verursacht wurde.

NodeDisks.pngRot umrandet ist der Speicherpool als Raid auf dem die VM installiert werden können aber nicht mehr funktionieren sobald die Wiederherstellung greift.
Raid5_OS


Grün ist sdb, ebenfalls ein LVM-Thin pool, Namen HANADB, dort wurde mir untersagt andere VMs etc. zu installieren, da der Speicher nur für HANA sein soll und oh wunder, dort klappt es ohne ein einziges Problem, Wiederherstellung aus Verzeichnis, NFS und ZFS.

Es ist nur eine Vermutung von mir, es scheint aber wirklich so zu sein, dass der Raid in dem Fall das Problem ist.
Jetzt stellt sich mir nur die Frage, was ist die beste alternative bzw. wie nutzt man einen Raid mit Proxmox VE korrekt?
 
Ich kann dir zwar leider nicht erklären wieso ein MDADM RAID solche Probleme verursachen sollte, aber generell wird ZFS dafür empfohlen.
Da die PM9A3 SSDs Datencenter geeignete Hardware sind, sollte das auch wunderbar funktionieren. Kommt etwas auf den Controller darauf an.
 
Last edited:
  • Like
Reactions: UdoB
Wenn du die Kapazität brauchst und die Performance eines Software RAID5 reicht, kannst du eigentlich nur RaidZ1 nehmen, wenn es stressfrei laufen soll.
Ein Software Raid10, was deutlich performanter ist, kann auch mdraid, btrfs oder zfs sein. Mit RAID5 bei md oder btrfs habe ich keine gute Erfahrung.
Wenn du einen Raidcontroller mit Batteriecache hast, könntest du ein RAID5 mit den SATA SSDs performanter hinbekommen und weiterhin Thinpool nutzen.
 
  • Like
Reactions: UdoB
Kannst du eine der NVMEs aus dem Raid5_OS (ROT) testweise rauslösen, diese "normal" einhängen und dann testen ob der Restore läuft?
Evtl. gibt es vielleicht bei den NVMe SSDs ein Problem mit der Backplane oder den Boardanschlüßen auf denen die eingebaut sind. Bei linux_raid_member denke ich irgendwie an den IntelChipsatz - bei einem Hardware Raid5 würde man hier nur ein Device sehen.
Nur eine Idee.

Da Du hier über die eingesetzte Hardware leider nichts verlauten lässt ist es schwer einzuschätzen ob hier evtl. auch Firmware Updates notwendig / sinnvoll wären!
 
Last edited: