Festplattenkonfiguration in einem 2-Node Cluster

asterisk

New Member
Sep 27, 2024
7
0
1
Hallo,
ich setze einen 2-Node Cluster + QDevice ein.
Die beiden Nodes haben jeweils 4x 2TByte SSDs. Ich frage mich, was die beste Konfiguration ist.
Raid 10 oder 4 einzelne SSDs ohne Raid? Da beim Cluster ja alles auf den 2.Node repliziert wird, könnte man doch auf ein Raid verzichten, oder?
Würdet ihr dennoch ein Raid 10 einsetzen? Gibt es Gründe, die für ein Raid sprechen?

Ich bin gespannt auf eure Empfehlung, Danke.

Hansjörg
 
Auf jeden Fall mit Raid. Die Replikation ist ja niemals echtzeit und du hast immer einen Verlust. Noch schlimmer trifft es dich, wenn du gerade Wartung an einem Node machst und dann stirbt dir eine SSD im laufenden Node. Nach Murphys Law passiert genau so etwas.
Die Replikation ermöglicht dir eine schnelle Migration der VMs zwischen den Nodes und du hast einen geringen Datenverlust, wenn mal ein Node stirbt.
 
  • Like
Reactions: Johannes S
Danke Falk für deine Antwort. Du hast natürlich Recht, daß nicht in Echtzeit repliziert wird und man dann im Ernstfall ein Daten-Delta hat, also Datenverlust. Aber wie ist es in einem Ceph-Cluster? Trifft die Aussage auch auf einen Ceph-Cluster zu, der ja hochverfügbar ohne Ausfallzeit läuft? Hier müssten die SSDs ja quasi in Echtzeit auf allen Nodes synchronisiert werden.
Mich interessiert eure Meinungen bzw. Empfehlungen. Klar, BestPractise ist ein Raid ja immer, aber ist es im Falle von Ceph auch zwingend erforderlich?
Gruss, Hansjörg
 
Danke Falk für deine Antwort. Du hast natürlich Recht, daß nicht in Echtzeit repliziert wird und man dann im Ernstfall ein Daten-Delta hat, also Datenverlust. Aber wie ist es in einem Ceph-Cluster? Trifft die Aussage auch auf einen Ceph-Cluster zu, der ja hochverfügbar ohne Ausfallzeit läuft? Hier müssten die SSDs ja quasi in Echtzeit auf allen Nodes synchronisiert werden.
Mich interessiert eure Meinungen bzw. Empfehlungen. Klar, BestPractise ist ein Raid ja immer, aber ist es im Falle von Ceph auch zwingend erforderlich?
Gruss, Hansjörg
Ceph macht das "Raid" ja über das Netzwerk. Du hast da im default 3 fach Replikation, was einem Raid1 über 3 Disks entspricht und wenn du viele Nodes hast, kannst du Erasure Coding nutzen was dann einem Raid5/6 oder besser entspricht. Da diese Repliaktion immer in Echtzeit ist (synchrone Replikation), ist für die Performance von Ceph, das Netzwerk extrem wichtig.
 
  • Like
Reactions: Johannes S
...also wenn ich das jetzt richtig verstehe, könnte man bei Ceph auf das interne Raid der Nodes verzichten. Wir setzen ein 10G-Netzwerk ein (Netzwerk-Schnittstellen und Netzwerk-Switche). Das müsste doch für die Performance des Netzwerkes reichen...
 
Naja, 10G ist heutzutage eher Standard als High Speed. ;)
Kommt immer auf die Größe und Performanceanforderungen an.

Ich habe einen Kunden der noch einen alten Cluster hat, mit 2x 10G LACP für Ceph.
Das Netzwerk ist da trotz HDDs das Bottleneck.
Neue Cluster baue ich in der Regel nur noch mit 100G, aber mindestens mehrere 25G Links auf.

Wenn du im Cluster den Standard mit 3 Replikas fährst, hast du im worst Case ca. 3,3 GBit Maximaldurchsatz und im Regelfall maximal 5 GBit deines 10G Links.

Bei Ceph ist es wie bei jeder anderen Lösung (VMware vSAN, Microsoft S2D), es dürfen nur native Disks genutz werden und kein Raid.
 
  • Like
Reactions: Johannes S

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!