Hallo,
ich bin ziemlich verwirrt und hoffe auf Erleuchtung.
Die Standard Installation (7.3) mit 2 SSD's im BTRFS-RAID1 erzeugt 2 UEFI Einträge. Das sieht dann in etwa so aus:
Obwohl wie bei einem Raid1 üblich auf beiden Platten identische Strukturen und dazu passende "UEFI OS" Einträge erzeugt werden, wird nur 1 "proxmox" Eintrag erzeugt? Das führt ja in der Folge dazu, das bei Ausfall der "passenden" Platte gar kein Boot Eintrag da ist, über den man GRUB booten könnte.
Soll das so sein? Bin ich zu doof? Oder wer oder was?
Bei mir wurde bei der Installation ein "proxmox" Eintrag für /dev/sdb2 erzeugt. Daher habe ich einfach mal einen 2. Eintrag für /dev/sda2 zusätzlich erzeugt. Ist das der richtige Weg?
An anderer Stelle wird empfohlen das "proxmox-boot-tool zu verwenden, damit die ESP Partitonen auch bei BTRFS-Raid1 syncron gehalten werden. Faktisch führt das aber zur Installation von "systemd-boot". Das wollte ich aber gar nicht haben, da damit z.B. die bootbaren Snapshots gar nicht verfügbar sind.
In der Doku wird ja auch darauf hingewiesen, das eigentlich nur für ZFS basierte Systeme gedacht ist....
Habe ich denn überhaupt die richtigen Befehle ausgeführt, um das proxmox-boot-tool zum Einsatz zu bringen?
Im Ergebnis habe ich 2 "systemd" Boot Einträge erhalten. Hier finde ich dann allerdings keine "rootfs=degraded" Einträge mehr, die ich zuvor in der /etc/defaults/grub eingetragen hatte. Wo muss ich das denn nachtragen?
Der Grub Eintrag bleibt erhalten, allerdings wird die Version nicht aktualisiert, wenn man von Proxmox 7.3 auf 7.4 aktualisiert. Auch ein update-grub bringt nichts. Immerhin werden in der grub.cfg die neuen Kernel verdrahtet.
Stellt sich gleich die nächste Frage. Wir wird man denn das ganze "proxmox-boot-tool" Zeugs wieder los?
Würde es nicht völlig ausreichen bei einem BTRFS-Raid1, neben dem 2.ten UEFI Boot-Menue Eintrag auch die beiden \EFI\PROXMOX\GRUBX64.EFI Dateien aktuell zu halten zu halten? Die Grub Parameter sind ja ohnehin über das Raid1 syncron.
z.B. indem man die Partitionen in ein md-raid packt?
Hatte ich noch vergessen zu erwähnen ....
in der /etc/fstab sollte man den Eintrag für /boot/efi um den Parameter "nofail" ergänzen, damit man im Falle eines Raid Fehlers überhaupt noch booten kann.
ich bin ziemlich verwirrt und hoffe auf Erleuchtung.
Die Standard Installation (7.3) mit 2 SSD's im BTRFS-RAID1 erzeugt 2 UEFI Einträge. Das sieht dann in etwa so aus:
Code:
root@pve:~# efibootmgr -v
BootCurrent: 0000
Timeout: 1 seconds
BootOrder: 0000,0003,0004,0001,0002,0005
Boot0000* proxmox HD(2,GPT,95b06048-29ec-49db-878b-e22ec34a96b5,0x800,0x100000)/File(\EFI\PROXMOX\GRUBX64.EFI)
Boot0001* UEFI:CD/DVD Drive BBS(129,,0x0)
Boot0002* UEFI:Removable Device BBS(130,,0x0)
Boot0003* UEFI OS HD(2,GPT,6b065f4f-9093-4106-8189-69aecf505888,0x800,0x100000)/File(\EFI\BOOT\BOOTX64.EFI)..BO
Boot0004* UEFI OS HD(2,GPT,95b06048-29ec-49db-878b-e22ec34a96b5,0x800,0x100000)/File(\EFI\BOOT\BOOTX64.EFI)..BO
Boot0005* UEFI:Network Device BBS(131,,0x0)
Obwohl wie bei einem Raid1 üblich auf beiden Platten identische Strukturen und dazu passende "UEFI OS" Einträge erzeugt werden, wird nur 1 "proxmox" Eintrag erzeugt? Das führt ja in der Folge dazu, das bei Ausfall der "passenden" Platte gar kein Boot Eintrag da ist, über den man GRUB booten könnte.
Soll das so sein? Bin ich zu doof? Oder wer oder was?
Bei mir wurde bei der Installation ein "proxmox" Eintrag für /dev/sdb2 erzeugt. Daher habe ich einfach mal einen 2. Eintrag für /dev/sda2 zusätzlich erzeugt. Ist das der richtige Weg?
Code:
efibootmgr -c -d /dev/sda -p 2 -L "Proxmox" -l "\EFI\PROXMOX\GRUBX64.EFI"
An anderer Stelle wird empfohlen das "proxmox-boot-tool zu verwenden, damit die ESP Partitonen auch bei BTRFS-Raid1 syncron gehalten werden. Faktisch führt das aber zur Installation von "systemd-boot". Das wollte ich aber gar nicht haben, da damit z.B. die bootbaren Snapshots gar nicht verfügbar sind.
In der Doku wird ja auch darauf hingewiesen, das eigentlich nur für ZFS basierte Systeme gedacht ist....
Habe ich denn überhaupt die richtigen Befehle ausgeführt, um das proxmox-boot-tool zum Einsatz zu bringen?
Code:
umount /boot/efi
proxmox-boot-tool init /dev/sda2
proxmox-boot-tool init /dev/sdb2
proxmox-boot-tool refresh
Im Ergebnis habe ich 2 "systemd" Boot Einträge erhalten. Hier finde ich dann allerdings keine "rootfs=degraded" Einträge mehr, die ich zuvor in der /etc/defaults/grub eingetragen hatte. Wo muss ich das denn nachtragen?
Der Grub Eintrag bleibt erhalten, allerdings wird die Version nicht aktualisiert, wenn man von Proxmox 7.3 auf 7.4 aktualisiert. Auch ein update-grub bringt nichts. Immerhin werden in der grub.cfg die neuen Kernel verdrahtet.
Stellt sich gleich die nächste Frage. Wir wird man denn das ganze "proxmox-boot-tool" Zeugs wieder los?
Würde es nicht völlig ausreichen bei einem BTRFS-Raid1, neben dem 2.ten UEFI Boot-Menue Eintrag auch die beiden \EFI\PROXMOX\GRUBX64.EFI Dateien aktuell zu halten zu halten? Die Grub Parameter sind ja ohnehin über das Raid1 syncron.
z.B. indem man die Partitionen in ein md-raid packt?
Code:
# install raid tools
apt-get update
apt-get install mdadm
# save efi-data
mkdir /tmp/efibackup
rsync -avx /boot/efi/ /tmp/efibackup/
umount /boot/efi
# create md device
mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 --metadata=1.0 /dev/sda2 /dev/sdb2
mkfs.vfat /dev/md0
# change the /boot/efi entry in /etc/fstab with the new UUID
mount /boot/efi
#restore efi-data
rsync -avx /boot/efi/ /tmp/efibackup/
Hatte ich noch vergessen zu erwähnen ....
in der /etc/fstab sollte man den Eintrag für /boot/efi um den Parameter "nofail" ergänzen, damit man im Falle eines Raid Fehlers überhaupt noch booten kann.
Last edited: