Erste Installation - Fallstricke?

Swen1980

Member
Nov 4, 2021
6
0
6
44
Hallo,

ich stehe kurz vor meiner ersten PVE Installation. Nun möchte ich natürlich unnötige Fehler vermeiden.

Zur Verfügung steht folgendes:

i5 10400
ASRock H470 Steel Legend
32GB DDR4
2 x 512GB Intel M.2 NVMe
4 x 4TB WD Red HDD

Meine Idee wäre jetzt aus den beiden M.2 ein RAID1 zu erstellen auf dem PVE installiert wird und aus den 4 HDDs ein RAID10 (ZFS) zu erstellen.

Passt das so? Gibt es irgendwas, auf das ich achten sollte? Bin ich auf dem richtigen Weg? Für Tipps bin ich dankbar!

Gruß Swen
 
ZFS kommt nicht mit SMR HDDs klar. Guck also besser dass das wirklich "WD Red Plus" oder "WD Red Pro" sind. Die normalen (neueren) "WD Red" nutzen SMR statt CMR und sind dann nicht für ZFS (oder generell für alles was in Richtung Server geht) geeignet.
Ähnliches bei den SSDs. Für ZFS sollte man wegen der ganzen Write Amplification und Sync Writes Enterprise SSDs benutzen. Consumer SSDs gehen da zwar prinzipiell, sind aber dann vermutlich recht lahm (bis runter auf HDD Niveau) und gehen sehr schnell kaputt (z.B. in unter 1 Jahr) wenn du z.B. viele Sync Writes als Workload hast. Auch fehlen Consumer SSDs die Powerloss Protection, dass du da immer Daten verlierst wenn es einen Stromausfall gibt was dann auf beiden SSDs gleichzeitig passiert und dir damit den ganzen Pool zerschießen kann und da dann auch ein Raid1 nichts hilft. Ließt man hier ständig wieder, dass da Consumer SSDs als ZFS raid1 verbaut waren und dann Proxmox nach einem Stromausfall nicht mehr bootet weil es den Pool zerschossen hat, da alles verloren ging, was noch im RAM Cache der SSDs war und noch hätte geschrieben werden sollen. Enterprise SSDs haben da für wenigen Sekunden noch eine interne Notstromversorgung, dass da der flüchtige RAM Cache noch schnell auf den nichtflüchtigen NAND Speicher niedergeschrieben werden kann, damit keine Daten verloren gehen. Eine USV für den Server kann da zwar auch gegen Stromausfälle helfen, aber fällt dir da dann das (Nichtredundante) Netzteil aus, dann hilft auch eine USV nichts.

Empfiehlt sich da eigentlich immer erst zu Fragen und dann Hardware zu kaufen und nicht anders herum. So ein Server hat da doch schon andere Anforderungen als was man sonst du für daheim kauft.

Solltest du sonst nochmal genau schreiben was das für HDD/SSD Modelle sind. Ist so nicht entnehmbar ob die überhaupt die ZFS geeignet sind oder nicht.
 
Last edited:
Danke Dunuin, für die Antwort.
Die 4 WD Red sind tatsächlich weder Plus noch Pro. Sind die Modelle mit 64MB Cache. WD40EFRX. Die hatte ich noch aus dem alten NAS. Mist.
Die SSDs sind Intel 660P NVMe SSD, M.2 Typ 2280 - 512 GB.

Das mit dem vorher fragen hätte ich mir denken können.
Gibt es Empfehlungen?
 
Last edited:
Danke Dunuin, für die Antwort.
Die 4 WD Red sind tatsächlich weder Plus noch Pro. Sind die Modelle mit 64MB Cache. WD40EFRX. Die hatte ich noch aus dem alten NAS. Mist.
Die SSDs sind Intel 660P NVMe SSD, M.2 Typ 2280 - 512 GB.
Die WD40EFRX sollten ok sein. Die alten "WD Red" waren noch CMR. Erst die neueren nutzen SMR.
Die SSDs sind allerdings echt übel. Sind nicht nur Consumer SSDs sondern nutzen auch noch QLC NAND. Der ist nochmal viel langsamer und geht noch schneller kaputt als normale Consumer SSDs mit TLC NAND. Falls du die neu gekauft hast und das 14 Tage Rückgaberecht noch nicht um ist würde ich die auf jedenfall zurückschicken. SSDs mit QLC NAND wirken zwar erst recht flott, aber nur solange der SLC Cache noch nicht voll ist. Sobald der voll ist bricht die Schreibleistung dann extrem ein. Musst du sonst mal selbst messen. Einmal die SSD zu 80% voll machen und dann die letzten 20% in einem rutsch beschreiben. Irgendwann sollte dann die Schreibleistung stark einbrechen wenn der SLC Cache voll ist. Dann siehst du die tatsächliche Schreibleistung des QLC NANDs. Bei einer Samsung QVO SATA SSD bricht da z.B. die Schreibleistung schlagartig von 500MB/s auf 80MB/s ein.
 
Last edited:
Da kauft man schon NVMe und es ist noch zu langsam? Hm. Könnte ich sicher noch stornieren. Ist die Idee mit dem raid der SystemSSDs eigentlich überhaupt umsetzbar? Ich hab die Intel Dinger auch nur bestellt, weil im Handbuch vom Board stand, dass auf den NVMe Ports raid nur mit Intel SSDs gehen soll...
 
Die Frage ist immer welche Workload du hast. Versuch mal 100GB als 4K Sync Random Writes auf die SSD mit ZFS zu schreiben. Würde mich nicht wundern wenn du da nicht über 1-stellige MB/s kommst, auch wenn die mit 1 GB/s beworben sind.
Und dann darfst du die Write Amplification nicht vergessen. Die SSD ist nur mit 100 TB TBW spezifiziert was die Haltbarkeit angeht. Ich habe hier mit ZFS eine Write Amplification von Faktor 3 bis 82 (je nach Workload) mit einer Write Amplification von Faktor 20 im Schnitt (über die Monate bei normaler Homeserver-Nutzung gemittelt). Heißt also für jeden 1TB den ich in einer VM schreibe werden 20TB auf die SSDs geschrieben. Wenn ich da also 5TB in einer VM schreiben würde, dann wären die 100TB TBW der SSD schon überschritten. Schreibst du mehr als 100TB auf die SSD erlischt deine Garantie weil du zu viel geschrieben hast, selbst wenn die 5 Jahre der Garantie noch nicht erreicht sind (Garantie ist immer "X Jahre oder bis erreichen der TBW"). Mein Heimserver schreibt hier wegen der Write Amplification im Leerlauf 900 GB am Tag. Nach 111 Tagen hätte die SSD da bei mir schon ihre spezifizierte Lebenserwartung überschritten. Heißt dann nicht, dass die SSD sofort nach Überschreitung kaputt ist, aber für mehr liefert dir Intel halt keine Garantie und sollte sie danach kaputt gehen bleibst du auf den Kosten sitzen.
900GB am Tag hört sich zwar erstmal nach viel an, ist es aber eigentlich nicht. Ich habe ja eine Write Amplification von Faktor 20, also ich muss nur 45GB pro Tag in VMs schreiben um auf 900GB am Tag für die SSDs zu kommen. Dann habe ich gute 20 VMs am laufen. Sind also nur 2,25 GB pro Tag pro VM. 2,25GB pro Tag erreicht man wenn man im schnitt mit nur 26 kb/s schreibt. 20 VMs die mit je 26 kb/s schreiben (was schon die Logs und Metrics fast alleine im Leerlauf schaffen können) resultieren dann in 900GB am Tag.

Und eine Write Amplification von Faktor 20 heißt nicht nur die SSD ist 20x schneller kaputt, es heißt auch die Schreibperformance ist auf nur 1/20tel gedrosselt.

Wie gut oder schlecht deine Write Amplification ist hängt von vielen Dingen ab wie z.B.:
- verschiedene genutze Blockgrößen
- Sync/Async Writes Verhältnis
- wie komplex das Dateisystem ist
- Virtualisierungsoverhead
- Verschlüsselung
- ob kleine oder große Writes
- ob sequentielle oder random Writes
- ob eine Powerloss Protection verbaut ist oder nicht, da ohne Powerloss Protection keine Sync Writes optimiert werden können
- wieviele Dateisysteme du verschachtelst
- deine gewählte Volblocksize
- wieviel Overhead die Metadaten deiner Dateisysteme erzeugen
- benutztes Raid
- dein SSD modell
- ...

Das beste was ich hier gemessen habe war eine Write Amplification von Faktor 3 bei großen sequentiellen async Writes. Das schlechteste Faktor 82 bei 4K random Sync Writes mit nativer ZFS Verschlüsselung.

Ich habe da Intel S3710 Enterprise SSDs verbaut. Da haben die 400GB Modelle eine TBW von 8300 TB. Da verträgt meine SSD laut Papier 83x so viele Writes bevor sie kaputt geht, obwohl sie kleiner ist.

Was das Mainboard bezüglich "nur Intel NVMes" schreibt sollte eigentlich egal sein wenn du ZFS für Raid nutzen willst. ZFS macht das Raid ja in Software und man sollte kein hardwareseitiges Raid in Kombination mit ZFS verwenden. Das Raid vom Mainboard müsste dann also sowieso deaktiviert werden. Denke das bezieht sich dann nur auf HW Raid, wenn dein Mainboard das Raid handhaben soll. Solltest du die SSDs behalten wollen würde ich dann aber auch eher statt ZFS zu dem HW onboard Raid raten, da es bestimmt schonender für die SSDs ist. Dann fallen aber natürlich auch die ganzen Features wie Deduplikation, Blocklevel Kompression, Replication, ZFS Snapshots, Selbstheilung bzw Schutz vor schleichendem Dateiverfall etc weg. Aber eben genau all diese Enterprise Features die ZFS so toll machen, machen es halt auch so komplex, dass es da massig Overhead gibt was dann auf die Leistung und Haltbarkeit der SSDs geht.

Außerdem solltest du gucken wie deine M.2 Slots am Mainboard angebunden sind. Meist ist einer der M.2 Slots direkt mit der CPU verbunden und hat volle 4 PCIe Lanes an Bandbreite alleine für sich zur Verfügung. Der zweite M.2 Slot ist meistens über den Chipsatz des MAinboards angebunden und muss sich die Bandbreite (meist auch 4 PCIe Lanes) zur CPU mit allen SATA Ports, allen USB Ports, NICs, Soundkarte, anderen PCIe Slots etc teilen. Ist da dann viel auf den SATA- oder USB-Ports los, dann muss die NVMe um die Bandbreite kämpfen und kann keine volle Performance liefern. Das bremst dann natürlich im Raid1 noch die andere schnelle M.2 SSD mit aus, da diese ja auf die langsamere M.2 SSD warten muss. Kann also durchaus sein, dass da deine HDDs die NVMes ausbremsen und umgekehrt, wenn du mal was von den NVMe zu den HDDs rüberkopieren willst. Volle Bandbreite mit 2 NVMe SSDs erreicht man da bei einfachen Consumer Boards normal nur mit PCIe zu M.2 Karten, da die einfachen Desktop CPUs einfach zu wenige PCIe Lanes liefern (meist nur 20 oder 24 Lanes), als dass man da eine GPU mit vollen 16 Lanes + zwei NVMe mit je 4 eigenen Lanes + sonstige Onboard-Sachen betreiben könnte.
 
Last edited:
Da kauft man schon NVMe und es ist noch zu langsam? Hm. Könnte ich sicher noch stornieren. Ist die Idee mit dem raid der SystemSSDs eigentlich überhaupt umsetzbar? Ich hab die Intel Dinger auch nur bestellt, weil im Handbuch vom Board stand, dass auf den NVMe Ports raid nur mit Intel SSDs gehen soll...
Da ist das Intel RoC (Raid on CPU) gemeint. Da macht die CPU selbst das Raid. Wenn du ein Software Raid egal ob ZFS oder etwas anderes machst, sind die NVMe egal.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!