Consumer SSDs wearout

Vengance

Renowned Member
May 21, 2016
271
12
83
34
Hallo,

Ich möchte einen kleinen Homeserver auf Basis von Proxmox mit ZFS aufbauen.
Primär soll FreeNAS in einer KVM VM, sowie ein/zwei weitere kleinere Debian KVMs betrieben werden.

Da die Anforderungen und das geplante Budget eher gering sind, wird es wohl auf Consumer SSDs rauslaufen.

Prinzipiell würden zwei 120GB SSDs im ZFS RAID 1 ausreichen, nur die Frage wegen dem Wearout.
Das billigste wären wohl zwei Crucial BX500 120GB SSDs.

Als Datastore werden zwei Seagate IronWolf 4TB Platten genutzt.

Ich habe in einem Thread einige Anpassungen gefunden, welche wohl etwas helfen sollen.
Hat hier jemand Erfahrungen, wie sich Consumer SSDs letztendlich im Alltag schlagen, insbesondere was die Haltbarkeit angeht?


Grüße
Ian
 
Die Einstellung auf die du hinaus willst ist wahrscheinlich "zfs_txg_timeout". Du solltest die Einstellung auf keinen Fall ohne USV setzen, ansonsten droht Datenverlust bei Strom Ausfall !

ZFS fragmentiert bei Proxmox sehr stark, nach 3 Monaten war mein proxmox test lab bereits bei 65%. Das hatte ich mit anderen Systemen so noch nicht. Hat aber mit SSD/HDD jetzt nichts zu tun. Liegt wahrscheinlich am exzessiven proxmox logging.

Bei SSD's mit gleichen Modell ist die gleichzeitige Ausfall Wahrscheinlichkeit zudem sehr hoch, am besten nimmst du 2 verschiedene Hersteller um auf Nummer sicher zu gehen. Oder besser misch alte und neue Festplatten. Du musst nur darauf achten das die Specs einigermaßen gleich sind.

Ansonsten spricht nichts dagegen, ich habe bisher noch keine Consumer SSD gehabt die ausgefallen ist, und habe mittlerweile über 20 Stück ( Nicht alle im Server Einsatz und wenn dann nur im Raid ). Die älteste ist von 2012. Ich tausche jedoch generell nach 3-4 Jahren Laufzeit Festplatten im Server aus. Geschwindigkeit und IOPS stimmen auch nach längerer Verwendung noch.

Du solltest wissen, dass Proxmox sehr viel schreibt 50gb am tag sind nicht wenig, hinzu kommen dann noch die VM's. Zudem wird alle 2 Wochen ein Scrub durchgeführt, welcher die Festplatten auch sehr belasten kann. Ein Monitoring der Smart Werte und eine gute Backup Strategie ( Wichtig: Restores regelmäßig testen ) sind unabdingbar.

Ansonsten bist du auch bei Consumer SSD's mit der TBW bei >5 Jahren Laufzeit.

Bitte beachte, dass das ganze für nicht kritische Heimanwendungen ist, im Professionellen bereich sieht das ganze dann anders aus.

Das ganze beruht auf meiner Erfahrung, andere Personen haben wahrscheinlich andere Meinungen. Zu gebrauchten festplatten würde ich persönlich niemals greifen, dann lieber günstige Consumer SSD's oder einmal in Enterprise Hardware investiert und ruhe haben.

Crucial wäre auch nicht meine Wahl, ich habe nur Samsung Evo/Pro und Sandisk Ultra im Einsatz. Aber darüber kann man sich streiten..
 
Last edited:
  • Like
Reactions: Vengance
Erstmal "das was H4R0" sagt, mit einer Ausnahme:

Das ganze beruht auf meiner Erfahrung, andere Personen haben wahrscheinlich andere Meinungen. Zu gebrauchten festplatten würde ich persönlich niemals greifen, dann lieber günstige Consumer SSD's oder einmal in Enterprise Hardware investiert und ruhe haben.

Ich habe schon öfters gebrauchte Enterprise SSDs (in nicht mehr haushaltsüblichen Mengen) gekauft und war bisher immer gut damit unterwegs. Gerade letztens 240 GB Samsung PM863 gebraucht für 40 Euro das Stück. Beide über 95% Wearout übrig, bzw. nur wenige TBW.
 
  • Like
Reactions: fireon
In meinem Heimserver läuft auch eine "billige" SSD.
Aber auch da unterscheiden sich häufig die TBW Werte und auch der verwendete Speichertyp.
Bisschen die Datasheets lesen und das bessere raussuchen.
Ansonsten halten SSDs eben nicht ewig, kann man aber mit leben denk ich. Gerade im Homeuse.
Zudem ist es mit einem Backup im Notfall doch schnell wieder neuinstalliert.

Aber zum Logging, das wusste ich auch noch nicht. Kann man das etwas eindämmen?
 
Aber zum Logging, das wusste ich auch noch nicht. Kann man das etwas eindämmen?
Es ist weniger das Logging, mehr die interne Datenbank von PVE, die über Fuse nach /etc/pve gemountet wird und die Performancedaten in RRD, die zu jedem Host und jeder VM/CT angelegt werden. Das alles erzeugt einiges an Schreiblast und wenn man dann Write Amplification auf der SSD hat wird eben enorm viel geschrieben. Das ist schon doof, aber so ist dann halt.

Eindämmen kann man es in dem man auf die Graphen verzichtet, aber wer will das schon.
 
Hi ich kann dir 400GB SSD für 50€ Anbeiten wenn du möchtest.

Löse gerade mein Cluster inkl. Hardware auf.
 
Gerade letztens 240 GB Samsung PM863 gebraucht für 40 Euro das Stück. Beide über 95% Wearout übrig, bzw. nur wenige TBW.
Auch wenn der Thread schon alt ist.
Kannst du mir vielleicht bitte sagen auf welche ID in den Smart Werten man schauen muss um den Wearout zu sehen.
Ist das ID B1? Und gilt das für SM863 wie PM863?
 
Auch wenn der Thread schon alt ist.
Kannst du mir vielleicht bitte sagen auf welche ID in den Smart Werten man schauen muss um den Wearout zu sehen.
Ist das ID B1? Und gilt das für SM863 wie PM863?
Bei den Samsung SSDs kannst du direkt die Herstellertools verwenden, z.B. den SSD DC Toolkit und dann entsprechend laut Datenblatt ausrechnen wieviel Prozent das ist. Mit den eigentlichen Smart-Werten via smartctl konnte ich auch leider nix anfangen.
 
Ich habe eine transcend im nuc, ich baue die von Zeit zu Zeit (etwa alle 6-9 Monate Mal aus) und schaue mir dem Hersteller Tool.
Nach 1,5 Jahren bin ich bei 99% Lebensdauer.
 
Das Wearout siehst du direkt in der WebUI bon Proxmox, auf dem Node die Disks auswählen..

257444F9-0B6B-40D0-B080-F796E7E2AA69.png

Wundert mich, dass da so wenig als wearout bei den anderen Anwendern berichtet wird, meine Samsung 980 PRO zeigt nach 6 Monaten Betrieb als Systemplatte schon 3% an und zwar OHNE ZFS oder RAID. Die VMs laufen auf der Samsung 860 in CEPH aktuell bei 1% Verschleiß.
 
Ist generell alles sehr wischiwaschi, denn die Werte z.B. in der GUI passen bei mir nicht zu den Werten, die bei mir das Samsung-Tool ausliest und dem glaub ich bei den Samsung SSDs irgendwie mehr.
 
  • Like
Reactions: Nebel
Das würde ich so nicht bezeichnen, es ist durchaus möglich, dass Samsung bei manchen Modellen die Werte anders speichert und älteres smart-tools es nicht richtig interpretieren, ansonsten wird es schon stimmen. Nach 100% Wearout gib es keine Ersatzsektoren mehr. Ob Samsung da ggf noch an der Kapazität dann dreht finde ich als unwahrscheinlich, da werden ehe bad sectors dann markiert..
ist ja ählich zu den realocated secotrs bei normalen HDDs da war dort das gleiche..
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!