Disk Konfiguration fürs HomeLab

Crashman

New Member
Feb 22, 2024
8
1
3
Hi!

Hab mir Proxmox auf einem Fujitsu Esprimo D7011 (10 Watt Idle!) installiert. Im Gerät hab ich eine 1TB NVME SSD (Samsung PM9A1; TBW: 600) und drei Samsung 870 EVO 4TB (TBW 2400) SSD.

Die PM9A1 ist LVM partitioniert. Darauf laufen das PVE System, sowie die Systempartitionen der VMs. Die drei 870EVO hab ich als RAID-Z1 konfiguriert. Diese dienen hauptsächlich als Filestorage. Hier werden zusätzliche Disks der VMs gespeichert.

Nun liest man ja öfter: Consumer SSD und ZFS verträgt sich nicht. Ich hab allerdings die 870EVO mit der PM893 von Samsung verglichen. Die hat zwar einen höheren TBW (3500) aber das ist im Vergleich zur EVO nur Faktor 1,5. Also kein Mega-Unterschied.

Ich möchte, dass die Platten 5 Jahre am leben bleiben. Ich betreibe keine riesigen Datenbanken die ständig Traffic produzieren. Im ZFS Storage liegt meine Fotodatenbank (2TB) sowie dieses und jedes.

Zur Datensicherung läuft ein PBS virtualisiert auf einer Synology und speichert dort die Backups.

Das System muss keine Benchmarkwettbewerbe gewinnen, es soll stabil und dauerhaft funktionieren.5 Jahre wären schon wünschenswert, auch für die SSDs.

Meint ihr, dass das mit ZFS auf den 870 EVO ein Problem werden kann? Gibt's noch andere Faktoren außer TBW, die man betrachten muss?

Grüße,
Sebastian
 
Es geht beim Unterschied zwischen consumer und enterprise nicht nur um die TBW, sondern auch um den cache. Dieser ist bei den consumer drives wesentlich kleiner. Ist der cache voll, nutzt das die SSDs schneller ab (grob gesagt).
 
Und ohne PLP wird jede kleine Änderung direkt in voller Chunk Größe auf die Zellen geschrieben, die Enterprise können im Cache sammeln und optimiert schreiben. Damit ergibt sich bei RaidZ schon mal Faktor 10-30 weniger writes auf den Zellen bei Enterprise SSDs
 
  • Like
Reactions: Dunuin
Nun liest man ja öfter: Consumer SSD und ZFS verträgt sich nicht. Ich hab allerdings die 870EVO mit der PM893 von Samsung verglichen. Die hat zwar einen höheren TBW (3500) aber das ist im Vergleich zur EVO nur Faktor 1,5. Also kein Mega-Unterschied.
Die Frage ist aber wie hoch die Write Amplification ist. Wenn bei der einen SSD 1TB Daten schreiben 10TB an Writes verursacht und bei der anderen die 1TB Daten nur 2TB, dann kann die eine trotzdem 5 mal schneller die angegebene TBW erreichen, auch wenn die TBW nur 33% kleiner ist. Würde ich also trotzdem die EVOs im Auge behalten, gerade weil du sagst da liegen auch virtuelle Disks mit drauf. Aber gut, wenn du keine Sync Writes in der Workload hast und du auch nicht vor hast da kontinuierlich langsam oder stoßweise große Datenmengen auf einmal drauf zu schreiben, dann kann das reichen.

Meint ihr, dass das mit ZFS auf den 870 EVO ein Problem werden kann? Gibt's noch andere Faktoren außer TBW, die man betrachten muss?
Naja vor allem die Write Amplification. Also gucken das du keine verschachtelten Dateisysteme nutzt, dass die Blockgrößen alle von Gast zur Disk immer nur kleiner aber nicht größer werden. Passende ashift und volblocksize wegen physischen Sektoren und Padding Overhead wählen. Keine Verschlüsselung. Am besten nur große sequentielle Async Writes und keine kleinen Random Sync Writes. Gucken das die Daten gut an die Sektoren sind, Kompression nutzen, ...
Je kleiner die Write Amplification ist, desto langsamer wird die TBW natürlich bei identischer Workload überschritten.
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!