Proxmox und VM auf einem Laufwerk?

Hardware Raids sind doch immer besser als Softwareraids.
Spätestens seit der Erfindung von ZFS kann man darüber streiten - mit durchaus offenem Ausgang.

Ein Hardware-Raid liefert NICHT: herstellerunabhängigkeit; transparente Kompression; garantierte Integrität; (technisch) billige Snapshots; Replikation; einfache Erweiterbarkeit und wohl einige mehr.

Einige dieser fehlenden Fähigkeiten werden durch die an Hardware-Raid angeflanschte Software wettgemacht (LVM, .qcow2). Aber mit ZFS bekommt man den ganzen Stack aus einem Guss, ohne komplexe Stapelung mehrerer formal unabhängiger Softwareprodukte - und somit ohne "Reibungsverluste".

Ja, ich bin ZFS-Fan ;-) https://forum.proxmox.com/threads/f...y-a-few-disks-should-i-use-zfs-at-all.160037/
 
  • Like
Reactions: Johannes S
ok, aber löst das jetzt mein Problem, oder war das nur ein gut gemeinter Rat?
Naja..., wie du willst ;-)

Ich installiere PVE immer auf ZFS. (Und ich habe ein paar klassische, recht alte, Raid-Controller ausgemustert im Schrank liegen...)

Sind denn alle Disks gleichwertig, oder sind das SSDs + HDDs? Das wurde anscheinend nirgends erwähnt.

Ich unterstelle also mal zwei SSD + zwei (oder mehrere) HDD und dass dies ein kompakter Universal-PVE werden soll. In dem Fall installierst du PVE auf ZFS auf den HDD(!), als ZFS-Mirror. Später, wenn alles läuft, fügst du die beiden SSDs als "Special Device"-Mirror dem existierendem "rpool" hinzu.

Alle Metadaten und "small blocks" (nach expliziter Konfiguration) landen dann auf den SSD und alle "eigentlichen" Daten auf den HDDs. So habe ich mehrere PBS' realisiert; PBS braucht nominell viele IOPS. Meine PVE sind allerdings alle "SSD/NVMe-only", ohne Blech.

Disclaimer: es gibt viele, viele Möglichkeiten - mein Vorschlag muss nicht zwingend der Beste sein!

Edit: nochmal zur Frage: der entstehende, einzige "rpool" taugt für alles! Dort ist das Betriebssystem installiert, es gibt Directories (ZFS Datasets) und es gibt ZVOLs für Blockdevices für virtuelle Festplatten. Das funktioniert gut!
 
Last edited:
  • Like
Reactions: Johannes S
Ich stimme euch grundsätzlich zu - glaube aber, dass das zu nichts führen wird, denn wir drehen uns schon jetzt irgendwie im Kreis. :rolleyes:
 
Das einzige was getan werden "muss" ist maxroot bei der Installation auf 50G zu setzen. Wie sieht lvs aktuell aus?


Wieso? Teile bitte was du beim Versuch siehst.
das scheint für mich interessant zu werden. Jetzt komme ich einen großen Schritt weiter. Ich habe die Max Kapazität genommen für die SSD und für maxroot. und jetzt bekomme ich auch diese Disk angezeigt, wenn ich eine VM installieren will. Schauen wir mal weiter, ob es das war.
 
Last edited:
Das sieht eigentlich in Ordnung aus. Der Platz für die PVE Seite ist hier halt 96G anstatt 50G. Standargemäß hast du bei LVM/Ext4 zwei Speicher. local welches auf dem mit EXT4 formatiertem root liegt (für Dateien wie Isos, Templates, OS, etc) und local-lvm welches auf data liegt (Thin provisionierter Blockspeicher/Rohspeicher) für die Virtuellen Festplatten der Gäste.
Bei ZFS teilen sich beide PVE Speicher den Platz, du musst also gar nichts fest zuweisen und das finde ich einfacher/flexibler. ZFS ist aber auf einem HW RAID controller (ohne IT mode) nicht unterstützt und daher momenetan keine Option. Siehe auch hier was proxmox zum Thema SW RAID zu sagen hat.
Der PVE installer macht eigentlich ganz gute Standardeinstellungen. maxroot auf 50G zu limitieren sollte an dem Verhalten, bis auf die Größe, nichts geändert haben.
 
Last edited: