[SOLVED] Intel DC SSD als local storage eine Alternative?

HBO

Active Member
Dec 15, 2014
274
15
38
Germany
Guten Morgen,

ich hab hier ein älteres Dual Xeon E5-2620v2 System auf dem ein W2016 Essentials als AD/DC und ein W2016 Server als RDS virtualisiert werden soll. RAM ist genug vorhanden, als Controller stecken HBAs drin.

Ich brauche nun nicht viel Storage aber auch nicht die mega große Geschwindigkeit, stabil soll es nun laufen.

Überlegt habe ich mir 4x 300 oder 600GB 10k rpm SAS 12G und 1x Intel DC SSD für ein ZFS Raid 10 zu nehmen (komplett mit Enterprise SSDs das System auszurüsten wäre übertrieben und auch wesentlich teurer).

Oder nun zur alternative mit minimal günstigeren Kosten eine 800GB Intel DC P3600 NVMe PCI-e Karte rein zu stecken, LVM Thin drauf und gut ist.

Ausfallsicherheit ist soweit gegeben, dass zum einen VM Backups erstellt werden sowie die Windows eigene Server Sicherung und für Ausfallzwecke weitere Systeme bereit stehen auf denen ich die Sicherung einspielen kann.
Hat jemand mit einer NVMe SSD als einzelner lokaler Storage für VMs schon Erfahrung sammeln können?
 
Überlegt habe ich mir 4x 300 oder 600GB 10k rpm SAS 12G und 1x Intel DC SSD für ein ZFS Raid 10 zu nehmen (komplett mit Enterprise SSDs das System auszurüsten wäre übertrieben und auch wesentlich teurer).

Hmm ... wesentlich teurer? 2x 800 GB enterprise (read-intensive) SSD über SATA ist vergleichbar teuer zu den 4x600 SAS+SSD.
 
Was für SSDs würdest du denn hier einsetzen? Hersteller und Modell? Ich hatte mich nach dem viel geposteten link zu den ceph SSDs orientiert. Die waren dann vergleichsweise viel teurer.
Mit den 2 SSDs klappt dann ZFS Raid 1 ohne extra zil und l2arc?
 
Hab eben mal im Fujitsu Configurator mir angeschaut und 4x 600 GB SAS 10k sind teurer als 2x 800 GB SATA, wenn 800 GB für euch reichen. Wenn du überall SSD hast brauchst du kein ZIL/L2ARC. Gespartes Geld würde ich in RAM stecken.

Mein Vergleich war die 800 GB SATA Enterprise SSD, 1 DWPD, kein Datenblatt, daher keine Ahnung welcher Hersteller und der Listenpreis is 950 Euro, die SAS 12G, 600GB 10k, 512e kostet 550 Euro Listenpreis. Somit sind 4x600 GB teurer als 2x800 GB SSD - wie gesagt - wenn euch z.B. 800 GB reicht.

Ich hatte mich nach dem viel geposteten link zu den ceph SSDs orientiert.

Ja, manche sind da nicht ohne, aber was ist z.B. mit Samsung PM863a, die ist nicht so teuer find ich und kommt als 960 GB Version bei Geizhals auf 460 Euro brutto. Das ist echt günstig, wenn ihr z.B. nur 2 braucht.

Falls ihr aber die Festplatten schon habt oder gebraucht kauft ist das natürlich eine andere Geschichte. Bei einer kompletten Neuanschaffung würde ich nur noch auf SSD setzen, da es faktisch keinen Unterschied mehr macht. 15k Platten sind mittlerweile immer teurer als SSDs.
 
RAM ist wie gesagt genug drin, 96GB für die 2 Win 2016 Server (DC und RDS), 2x 6 Kerner E5-2600v3. Nur bei den HDDs bin ich etwas unschlüssig.

Ich hatte mit den Seagate SAS 12g mit 10k rpm und 600 GB gerechnet da die 300 GB fast gleich viel kosten. Speicherplatz benötige ich gesamt auch nicht mehr als 600 GB. In Kombination mit den 4x SAS (neu) und einer kleinen DC SSD für zil/l2arc wäre ich so auf ca. 900 EUR brutto gekommen.

2x Samsung SSD PM863a (OEM) 960GB, SATA (MZ7LM960HMJP-00005) kommen dann natürlich auf den gleichen Betrag, ich hätte nun nicht damit gerechnet das die schon tauglich für ein ZFS Raid1 wären. Zum testen habe ich derzeit 4x Samsung Pro 850 SSDs drin, das ist erbärmlich lahm und baute binnen 1 Woche 4% Wear Level Count auf.

PS:
Hätte es einen Vorteil (Geschwindigkeit etc) wenn man 4x die PM863a 480GB im ZFS Raid 10 einetzen würde? Wäre ja ggfl nur minimal teurer als 2x 960GB
 
Samsung PRO 850 sind NUR für den Desktop brauchbar, für Server sollten NUR data center SSDs verwenden. Entweder Intel oder Samsung, immer Datacenter Modelle.

Wir haben sehr gute Erfahrungen mit Samsung SSD SM863a (etwas teurer wie die PM, aber halten auch viel länger (TBW).
 
Ich hätte nur nie gedacht, dass die Consumer Variante so viel schlechter ist. Ich gebe das alles mal so weiter. Danke für die Infos.
 
Ich hätte nur nie gedacht, dass die Consumer Variante so viel schlechter ist. Ich gebe das alles mal so weiter. Danke für die Infos.

Jo ... ich hab mal eine 750 EVO probiert ... da waren in einem Monat über 20% weg. Das war sehr ernüchternd.

Hätte es einen Vorteil (Geschwindigkeit etc) wenn man 4x die PM863a 480GB im ZFS Raid 10 einetzen würde?

Generell sind mehr Geräte immer besser was den Durchsatz angeht.

Wir haben sehr gute Erfahrungen mit Samsung SSD SM863a (etwas teurer wie die PM, aber halten auch viel länger (TBW).

Das stimmt schon, frage ist halt, ob man die DWPD benötigt oder nicht. Die Systeme mit Enterprise SSDs, die ich mir bisher angeschaut habe, sind alle noch bei 99% Health, bzw. maximal 1% wearout und stehen alle bei Zweistelligen TB-Werten.
 
Wir haben sehr gute Erfahrungen mit Samsung SSD SM863a (etwas teurer wie die PM, aber halten auch viel länger (TBW).

Ich möchte mit vier SSDs ein ZFS Raid 10 erstellen. Ausgeschaut hatte ich mir die Intel SSD DC S4500 960GB, 2.5", SATA (SSDSC2KB960G701). Oder sollte ich doch lieber zu den Samsung SSD SM863a greifen? Die TBW ist ja enorm höher als die Intel. Da ich keine Erfahrung mit dem Einsatz von SSDs in Servern habe kann ich es Gefühlstechnisch nicht abschätzen.

Einschübe habe ich genug... Wäre es da besser lieber mit 480GB SSDs zu arbeiten? Und dabei vielleicht ein RAID-Z2 erstellen oder auch ein ZFS Raid 10?
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!