SSD für ZFS - Reicht diese dafür aus?

Nov 17, 2023
247
22
18
Ich würde gerne die Samsung 9100 Pro für mein ZFS einsetzen.
Laut Samsung hat die 9100 Pro hat eine Garantie von fünf Jahren und ist für eine Lebensschreibleistung (TBW) von 600 Terabytes (je 1 Terabyte Speicherkapazität) ausgelegt. Das von uns getestete 4-TB-Modell hat also eine TBW von 2400 Terabyte. Das sollte doch für ZFS und unseren Einsatzzweck genügen. ;) OK, ihr kennt ja unseren Einsatzzweck gar nicht ;)

Also wir wollen einen Proxmox Cluster mit 3 Node und folgende Server einsetzen.
Windows 2025 als DC und Fileserver
Windows 2025 plus Exchange SE
Windows 2025 plus MS SQL Server 2022
für 20 Mitarbeiter

Da sollte doch die Samsung 9100 Pro mit 2400 TBW ausreichen oder?
 
Eine NVMe für ZFS? Hat die Samsung 9100 Pro PLP und DRAM Cache?
Ist sie enterprice rate?

Ich nutze nur noch zfs mit 2 - 3 ZFS VDEV mirror mit SSD für VM, die als ZFS Stripe miteinander verbunden sind.

# Kingston DC600M

Man benötigt immer mindestens 2x Device für eine ZFS Pool.
Der ZFS rpool - Boot disk und Root system, kann man zusätzlich einfach über einen einfachen ZFS VDEV mit 2x SSD bereitstellen.

Einfache NVMe sind sehr langsam bzgl. Random 4k I/O.

Welche Hardware soll verwendet werden, AMD Ryzen Threadripper™ Prozessoren der Generation 5000 ?

Dann hätte man genügend Rechenleistung und PCIe Lanes für die vielen benötigten NVMe PCIe® 4x4.
Problem ist auch bei PCIe® 4 die Wärmeentwicklung und die Kühlung über PCIe® 4 x4 x4 Riserkarten.
 
Last edited:
Ich würde gerne die Samsung 9100 Pro für mein ZFS einsetzen.

Für den professionellen Einsatz schließe ich mich vollständig meinen Vorrednern an - die Empfehlungen sind eindeutig.

Am Ende muss aber natürlich jeder selber wissen, was er riskieren will und wieviel Geld im Vorfeld eines Ausfalls investiert werden darf, statt möglicherweise stundenlange/tagelange Downtime hinzunehmen. Denn dass die Dinger irgendwann den Geist aufgeben, ist klar. Und zwar unabhängig von der Qualität und PLP. Darum braucht man auf dieser Ebene möglichst flächendeckend Redundanz --> ZFS-mirror. Bei billigen Devices auch gerne dreifach-Spiegel, statt nur zweifach.

Sofern ein stabiler Cluster mit hinreichend High-Availability den Ansprüchen genügt, darf ein Boot-Medium aber auch mal billiger ausgelegt sein. Was genau "hinreichend" ist, kann allerdings drastisch schwanken.

Und im Homelab bin ich natürlich noch viel flexibler, da kommen praktisch ausschließlich "normale" NVMe zum Einsatz - in einer Konstruktion, die ich niemals beruflich einsetzen würde. Meine Homelab-SSDs sind allerdings auch hier fast alle "Enterprise".

Just my 2 €¢...
 
Eine NVMe für ZFS? Hat die Samsung 9100 Pro PLP und DRAM Cache?
Ja pro TByte Speicherplatz stehen ihm 1 GByte DRAM-Speicher zur Beschleunigung zur Verfügung.

Ist sie enterprice rate?
Ich glaube nicht Aber,
5 Jahre | 2.400 TB
1,5 Millionen Stunden
[th]
Garantie (Zeit) | (TBW)​
[/th]​
[th]
Mittlere Ausfallzeit (MTBF)​
[/th]​
Das ist doch auch schon mal eine ganze Menge TB oder?

Ich nutze nur noch zfs mit 2 - 3 ZFS VDEV mirror mit SSD für VM, die als ZFS Stripe miteinander verbunden sind.

# Kingston DC600M

Man benötigt immer mindestens 2x Device für eine ZFS Pool.
Der ZFS rpool - Boot disk und Root system, kann man zusätzlich einfach über einen einfachen ZFS VDEV mit 2x SSD bereitstellen.

Einfache NVMe sind sehr langsam bzgl. Random 4k I/O.

Das hört sich aber gar nicht so langsam an.
14.800 MB/s | 13.400 MB/s
2.200 k | 2.600 k
[th]
Herstellerangabe MB/s Lesen | Schreiben​
[/th]​
[th]
Herstellerangabe 4K IOPS Lesen| Schreiben​
[/th]​

Welche Hardware soll verwendet werden, AMD Ryzen Threadripper™ Prozessoren der Generation 5000 ?

CPU AMD EPYC | SP3 | 7313P | 3.0GHz | 16-Core | 155W | Milan
16 Cores, 32 Threads, 3.0GHz, 3.7GHz max Turbo, 128MB L3 Cache, Memory: 8-Channels DDR4 3200 DRAM, 128 Lanes PCIe
max TDP: 180 Watt, SP3

Dann hätte man genügend Rechenleistung und PCIe Lanes für die vielen benötigten NVMe PCIe® 4x4.
Problem ist auch bei PCIe® 4 die Wärmeentwicklung und die Kühlung über PCIe® 4 x4 x4 Riserkarten.
Ja, für die Kühlung ist gesorgt.
 
  • Like
Reactions: IsThisThingOn
Dann mach bitte mal tests mit zfs mirror und zfs vdev 2x mirror mit stripe.
Random R/W 4 kByte Tests, mit 128 kByte Blockgröße, ist die default von ZFS unter Proxmox.
Wenn keine ZFS Tuning passiert, ist die Schreiblast noch höher.
 
Randnotiz: auf einem DC setzt man normalerweise nix anderes auf als AD-Controllerfunktionen und DNS, selbst keinen DHCP. Auf einem DC wird automatisch das caching deaktiviert. Für einen Fileserver nicht die beste Wahl.
 
Randnotiz: auf einem DC setzt man normalerweise nix anderes auf als AD-Controllerfunktionen und DNS, selbst keinen DHCP. Auf einem DC wird automatisch das caching deaktiviert. Für einen Fileserver nicht die beste Wahl.
Ja, ich weis ein DC ist ein DC und nur ein DC ;)
Aber einen putzigen Fileserver kann der schon noch stammen.
 
Ja, ich weis ein DC ist ein DC und nur ein DC ;)
Aber einen putzigen Fileserver kann der schon noch stammen.
Nein, auf keinen Fall.
Auf einem DC wird das Disk Caching deaktiviert, damit die AD Datenbank immer Konsistent ist. Beim Fileserver willst du aber caching haben. Daher vertragen sich diese beiden Anwendungsfälle gar nicht.