Das Frage ich mich auch ;-)hm, wofür ist dann die teure Karte da drin?
Spätestens seit der Erfindung von ZFS kann man darüber streiten - mit durchaus offenem Ausgang.Hardware Raids sind doch immer besser als Softwareraids.
Naja..., wie du willst ;-)ok, aber löst das jetzt mein Problem, oder war das nur ein gut gemeinter Rat?
das scheint für mich interessant zu werden. Jetzt komme ich einen großen Schritt weiter. Ich habe die Max Kapazität genommen für die SSD und für maxroot. und jetzt bekomme ich auch diese Disk angezeigt, wenn ich eine VM installieren will. Schauen wir mal weiter, ob es das war.Das einzige was getan werden "muss" istmaxrootbei der Installation auf 50G zu setzen. Wie siehtlvsaktuell aus?
Wieso? Teile bitte was du beim Versuch siehst.
Das sieht eigentlich in Ordnung aus. Der Platz für die PVE Seite ist hier halt 96G anstatt 50G. Standargemäß hast du bei LVM/Ext4 zwei Speicher.
local welches auf dem mit EXT4 formatiertem root liegt (für Dateien wie Isos, Templates, OS, etc) und local-lvm welches auf data liegt (Thin provisionierter Blockspeicher/Rohspeicher) für die Virtuellen Festplatten der Gäste.maxroot auf 50G zu limitieren sollte an dem Verhalten, bis auf die Größe, nichts geändert haben.Ich kann dem nur zu 80% zustimmen. Wo genau steht denn, dass man kein Hardware Raid mit ZFS nutzen darf. Es wird empfohlen es nicht zu tun, weil Leute die unbedarft danach Fragen keine Ahnung von ZFS haben und oft auch nicht von ihrem Raid controller.Das sieht eigentlich in Ordnung aus. Der Platz für die PVE Seite ist hier halt 96G anstatt 50G. Standargemäß hast du bei LVM/Ext4 zwei Speicher.localwelches auf dem mit EXT4 formatiertemrootliegt (für Dateien wie Isos, Templates, OS, etc) undlocal-lvmwelches aufdataliegt (Thin provisionierter Blockspeicher/Rohspeicher) für die Virtuellen Festplatten der Gäste.
Bei ZFS teilen sich beide PVE Speicher den Platz, du musst also gar nichts fest zuweisen und das finde ich einfacher/flexibler. ZFS ist aber auf einem HW RAID controller (ohne IT mode) nicht unterstützt und daher momenetan keine Option. Siehe auch hier was proxmox zum Thema SW RAID zu sagen hat.
Der PVE installer macht eigentlich ganz gute Standardeinstellungen.maxrootauf 50G zu limitieren sollte an dem Verhalten, bis auf die Größe, nichts geändert haben.
Hier in der PVE Dokumentation. Hier in der OpenZFS Dokumentation. Hier im FrontendWo genau steht denn, dass man kein Hardware Raid mit ZFS nutzen darf

Richtig, Empfehlung und nicht Verbot. Auch diese Anzeige ist schon grenzwertig, aber man möchte damit die Unwissenden davon abhalten groben Unfug zu machen.Hier in der PVE Dokumentation. Hier in der OpenZFS Dokumentation. Hier im Frontend
View attachment 95704
Ich habe keine eigene Erfahrung mit ZFS auf HW RAID, Ich leite nur die Offiziellen Empfehlungen weiter.
Meine Nachricht ist direkt über deiner. Ein Vollzitat ist redundant/unnötig.
Da hätte ich schon wieder meine Probleme mit. Ein Special Device musst du immer mindestens als Mirror machen und wenn du einen Mirror im Pool hast, auch wenn es nur das Special Device ist, macht mir Bauchschmerzen.Unsere PB recyclen die alten FC Storages mit ZFS problemlos. Immer ein 30TB ZFS Single Pool mit einem 1TB NVMe Spezial Device. Rennt problemlos.
Ja aber warum sollte man es dann tun? Weil man irgendeinen HPE Emterprise Server mit SmartStorage Array hat, und dieser noch einen Wartungsvertrag haben, und man deshalb den Controller nicht flashen oder austauschen kann. Oder weil die die Fans permanent auf 100% laufen, wenn man den Controller gegen etwas ohne HPE-Logo austauscht.Ich kann dem nur zu 80% zustimmen.
LVM-Thin mit default root Partition Größe ist die erste Wahl, aber wenn jetzt oder später Replikation genutzt werden soll, braucht man halt ZFS und das geht natürlich auch.Ja aber warum sollte man es dann tun? Weil man irgendeinen HPE Emterprise Server mit SmartStorage Array hat, und diese noch einen Wartungsvertrag haben, und man deshalb den Controller nicht flashen oder austauschen kann. Oder weil die die Fans dann permanent auf 100% laufen, wenn man ihn gegen etwas ohne HPE-Logo austauscht.
Auch sehe ich nicht was diese Diskussion mit der Frage des OPs zu tun hat. Um da aber auch noch meinen Senf dazuzugeben...
Ich würde einfach eine Default Installation mit LVM machen. Die Proxmox Devs werden sich mit den 96GB schon etwas überlegt haben, und wenn die 46GB Unterschied zwischen den gewünschten 50GB und 96GB wirklich ein Problem sind, sollte OP wohl grössere SSDs kaufen, denn bis an den Rand auffüllen sollte man diese Dinger eigentlich nie. Und btw, wenn man das will, kommt ZFS sowieso nicht in Frage.
![]()
Ja Repikation in Proxmox und/oder auch snapshot and replication im Allgemeinen ist natürlich neben den Daten-Integritäts-Features ein Killer-Feature von ZFS. Ob man das aber im Homelab oder kleinen KMU wirklich braucht, steht nochmal auf einem anderen Blatt. Da würde ich vorher in einen Proxmox Backup Server investieren bevor ich noch eine oder gar zwei weitere Server nur für "Uptime" kaufen würde. Anyway. Ich denke in diesem konkreten Fall wäre LVM die beste Wahl, und wenn man eine Custom-Partitionierung möchte, könnte man ja noch den Weg via Debian und dann Proxmox Repos hinzufügen gehen.LVM-Thin mit default root Partition Größe ist die erste Wahl, aber wenn jetzt oder später Replikation genutzt werden soll, braucht man halt ZFS und das geht natürlich auch.
Das war mal in den 90ern soDas ist jetzt nicht Dein Ernst? Hardware Raids sind doch immer besser als Softwareraids.
Da ist aber viel Meinung mit gar nicht so viel Fakten gemischt.Das war mal in den 90ern so
Ernsthaft, Ein MegaRaid ist ja am Ende auch nur ein Software Raid, mit dem Unterschied, dass es von der Firmware einer properitären Broadcom Karte kontrolliert wird, und wenn dir die abraucht, kann es dir das Raid komplett zerschiessen. Das, und Gier, ist der Grund warum Firmen wie HPE, Dell etc auf die eh schon phantastischen Preise von off-brand Karten mit den selben Chips, nochmals 50-100% draufschlagen, weil dann dort, zumindest in der Theorie, garantiert ist, dass vorheriges nicht passiert. Haften, wenn es doch passieret, werden sie deshalb natürlich nicht.
Mein Tipp: Falls du das MegaRaid nutzen/behalten möchtest, nutze einfach die Default LVM Installation. Falls du ZFS willst, frage das Internet, ob die Karte einen IT-Mode hat, falls ja aktiviere den, und nur dann solltest du ZFS nutzen.
Da kann ich Dir Storys erzählen, da wird die schwarz vor den Augen. Wir haben vor circa 8 Jahren bereits damit begonnen, alle Raid-Controller zu entsorgen. Wenn überhaupt erlauben wir noch JBOD, alles andere fliegt raus. Grund sind nunmal die maximale Abhängigkeit von der Karte, inkompabilität zu anderen Karten, kein offener Standard etc. pp. Das negiert einfach die wenigen Pluspunkte der Karten.Ich habe noch nie ein kaputtes RAID gesehen was ein Controller verursacht hätte. Die haben gute Mechanismen eingebaut das nix passiert.
We use essential cookies to make this site work, and optional cookies to enhance your experience.