Hallo zusammen,
ich habe einen Cluster, bestehend aus derzeit 2 Servern mit je 32 Gig RAM (mehr packt das Board leider nicht) und bin auf der Suche nach einem möglichst performanten Storage dafür.
Ausfallsicherheit / HA ist jetzt nicht so kritisch, aber ich würde damit gerne Erfahrungen sammeln und natürlich das Beste aus der vorhandenen Hardware holen. Dabei ist der Stromverbrauch für mich so mit der größte Faktor, denn das Ganze geht schon ziemlich ins Geld, wenn da ständig 300 W oder so vor sich hin rödeln...
Ein großer offener Punkt ist dabei das Storage. Ich bin mittlerweile seit Wochen auf der Suche nach der geeigneten Technik - ursprünglich liefen mehrere VMs auf einer Platte ohne Redundanz. Das ist natürlich nicht sehr schön, theoretisch könnte man dem aber mit Replikation entgegenwirken.
ZFS habe ich mir angeschaut, das gefällt mir vom Prinzip schon recht gut, aber dieser enorme Speicherhunger gefällt mir gar nicht. Mir wurde im TrueNAS Forum gesagt, dass ich eigentlich nicht unter 64 GB anfangen soll, aber meine beiden Produktiv-Server haben jeweils nur 32 GB und sollen eigentlich auch noch VMs hosten. Auf einem Testserver habe ich Proxmox und ZFS mit 128 GB laufen lassen und war jetzt nicht sooo angetan von der Performance. Dass man für ZFS eigentlich auch immer nur Mirrors nehmen soll und Raid-Z nicht empfohlen wird, stört mich eigentlich auch so ein wenig.
GlusterFS finde ich super cool. Mir gefällt, dass die Dateien quasi "direkt" sichtbar sind, und man diese direkt wegkopieren könnte (im Fall eines Crashs interessant). Dass ein Zugriff via NFS auch funktioniert, gefällt mir auch sehr gut. Aber die Performance war jetzt nicht sooo toll.
Ceph sieht sehr interessant aus, das habe ich noch nicht live getestet. Aber die RAM-Anforderungen fand ich auch übelst. Ich kann das nicht einschätzen ob das jetzt Werte sind, die einfach fürs große Rechenzentrum relevant sind oder auch fürs HomeLab. Aber auch da waren von 64 GB die Rede...
Bleibt noch ein lokales RAID5 auf den pve's und vielleicht eine regelmäßige Replikation, aber RAID ist ja auf dem absteigenden Ast, wegen Bit-Rot & co. - und so ein verteilter Speicher hat schon seinen Reiz.
Jetzt würde mich mal interessieren - was habt Ihr so für Erfahrungen gemacht, könnt Ihr was empfehlen? Sicher kommts auf mehr drauf an (welche Art von Zugriffen soll stattfinden, z.B Datenbank oder Datei-Ablage, etc.). Hier würde ich aufs Mittelfeld setzen - von allem etwas. Es soll ja eine Spielwiese für vielerlei Sachen sein.
Platten habe ich derzeit einige 2,5" SAS-Platten mit 10k Umdrehungen/Min. Ich dachte mal, die wären recht performant, aber natürlich kein Vergleich zu SSDs. Aber die sind halt noch recht teuer, zumindest die für den Servereinsatz geeigneten. Aber an dieser Stelle würde mich auch mal etwas interessieren: Wenn ich verteilten Speicher wie GlusterFS oder Ceph verwende, verliere ich an IOPS durch das Netzwerk (bei mir ist übrigens 10 GBit/s vorhanden). Machen das dann SSDs wieder wett, oder ist die Performance trotz Netzwerklatenz besser als bei einem DAS mit SAS-HDDs? Habt Ihr hier Erfahrungswerte?
Ich habe mich schon viele, viele Stunden durch Foren gelesen, Tutorials gewälzt und recherchiert ohne Ende. Aber zu einem sinnvollen Ergebnis bin ich mittlerweile noch nicht gekommen. Vielleicht könnt Ihr mir helfen?
Auf jeden Fall will ich nicht glauben, dass man nur mit viel RAM einigermaßen Performance hinbekommt. Auf der Arbeit haben wir SANS mit HDDs und 2 GB RAM und die bedienen 30-40 VMs über VMware ESX. Also sollte ich für meine 10 VMs das doch auch irgendwie gemanagt bekommen, oder täusche ich mich?
ich habe einen Cluster, bestehend aus derzeit 2 Servern mit je 32 Gig RAM (mehr packt das Board leider nicht) und bin auf der Suche nach einem möglichst performanten Storage dafür.
Ausfallsicherheit / HA ist jetzt nicht so kritisch, aber ich würde damit gerne Erfahrungen sammeln und natürlich das Beste aus der vorhandenen Hardware holen. Dabei ist der Stromverbrauch für mich so mit der größte Faktor, denn das Ganze geht schon ziemlich ins Geld, wenn da ständig 300 W oder so vor sich hin rödeln...
Ein großer offener Punkt ist dabei das Storage. Ich bin mittlerweile seit Wochen auf der Suche nach der geeigneten Technik - ursprünglich liefen mehrere VMs auf einer Platte ohne Redundanz. Das ist natürlich nicht sehr schön, theoretisch könnte man dem aber mit Replikation entgegenwirken.
ZFS habe ich mir angeschaut, das gefällt mir vom Prinzip schon recht gut, aber dieser enorme Speicherhunger gefällt mir gar nicht. Mir wurde im TrueNAS Forum gesagt, dass ich eigentlich nicht unter 64 GB anfangen soll, aber meine beiden Produktiv-Server haben jeweils nur 32 GB und sollen eigentlich auch noch VMs hosten. Auf einem Testserver habe ich Proxmox und ZFS mit 128 GB laufen lassen und war jetzt nicht sooo angetan von der Performance. Dass man für ZFS eigentlich auch immer nur Mirrors nehmen soll und Raid-Z nicht empfohlen wird, stört mich eigentlich auch so ein wenig.
GlusterFS finde ich super cool. Mir gefällt, dass die Dateien quasi "direkt" sichtbar sind, und man diese direkt wegkopieren könnte (im Fall eines Crashs interessant). Dass ein Zugriff via NFS auch funktioniert, gefällt mir auch sehr gut. Aber die Performance war jetzt nicht sooo toll.
Ceph sieht sehr interessant aus, das habe ich noch nicht live getestet. Aber die RAM-Anforderungen fand ich auch übelst. Ich kann das nicht einschätzen ob das jetzt Werte sind, die einfach fürs große Rechenzentrum relevant sind oder auch fürs HomeLab. Aber auch da waren von 64 GB die Rede...
Bleibt noch ein lokales RAID5 auf den pve's und vielleicht eine regelmäßige Replikation, aber RAID ist ja auf dem absteigenden Ast, wegen Bit-Rot & co. - und so ein verteilter Speicher hat schon seinen Reiz.
Jetzt würde mich mal interessieren - was habt Ihr so für Erfahrungen gemacht, könnt Ihr was empfehlen? Sicher kommts auf mehr drauf an (welche Art von Zugriffen soll stattfinden, z.B Datenbank oder Datei-Ablage, etc.). Hier würde ich aufs Mittelfeld setzen - von allem etwas. Es soll ja eine Spielwiese für vielerlei Sachen sein.
Platten habe ich derzeit einige 2,5" SAS-Platten mit 10k Umdrehungen/Min. Ich dachte mal, die wären recht performant, aber natürlich kein Vergleich zu SSDs. Aber die sind halt noch recht teuer, zumindest die für den Servereinsatz geeigneten. Aber an dieser Stelle würde mich auch mal etwas interessieren: Wenn ich verteilten Speicher wie GlusterFS oder Ceph verwende, verliere ich an IOPS durch das Netzwerk (bei mir ist übrigens 10 GBit/s vorhanden). Machen das dann SSDs wieder wett, oder ist die Performance trotz Netzwerklatenz besser als bei einem DAS mit SAS-HDDs? Habt Ihr hier Erfahrungswerte?
Ich habe mich schon viele, viele Stunden durch Foren gelesen, Tutorials gewälzt und recherchiert ohne Ende. Aber zu einem sinnvollen Ergebnis bin ich mittlerweile noch nicht gekommen. Vielleicht könnt Ihr mir helfen?
Auf jeden Fall will ich nicht glauben, dass man nur mit viel RAM einigermaßen Performance hinbekommt. Auf der Arbeit haben wir SANS mit HDDs und 2 GB RAM und die bedienen 30-40 VMs über VMware ESX. Also sollte ich für meine 10 VMs das doch auch irgendwie gemanagt bekommen, oder täusche ich mich?