Hallo Leute,
Langsam wird mein Proxmox-Szenario konkreter, mit der Hardwareplanung bin ich schon recht weit fortgeschritten (Danke an dieser Stelle an @SkyDiver79 ). Jetzt möchte ich allerdings nochmal auf das Wissen aller hier zurückgreifen und ein paar Anregungen dazu, wie man einen Ceph-Cluster am elegantesten auf zwei Brandabschnitte verteilt um den Ausfall eines Abschnitts kompensieren zu können.
Folgende Hardware ist geplant:
6x Supermicro 1114S-WN10RT mit je 10 NVMe-SSDs als OSDs, 2 M.2 SSDs für's Betriebssystem, 2x 25G als Storage-Netzwerk und 6x 10G für Corosync, GUI und die VMs, EPYC 74F3, 512GB RAM
Um bei einem Ausfall das (?) Quorom erreichen zu können, brauche ich an irgendeiner Stelle einen zusätzlichen ceph-mon (und einen corosync-knoten?), wie ich das realisiere weiß ich noch nicht genau. Da wären Ideen und Vorschläge auf jeden Fall gerne gesehen
Wie man sich sicherlich an Hand der Config denken kann, stehen in jedem Brandabschnitt drei Supermicro-Maschinen. Ich habe zwischen den beiden Serverräumen 48 OM4 Fasern auf ca. 165m liegen. Das ergibt 24 anschließbare Module/GBICs, aktuell belegt sind 4. Sprich 20 hätte ich zur freien Verfügung. Außer, dass es "nur" OM4 ist, nicht die schlechtesten Voraussetzungen für das Vorhaben. Glaube ich jedenfalls bis jetzt ;-)
Ceph bietet mit Stretch Clusters im Prinzip genau das an, wie das im Zusammenspiel mit Proxmox funktioniert (oder ob es überhaupt funktioniert) weiß ich aber nicht. Bei meiner Recherche bin ich immer wieder darüber gestolpert, dass die Kommunikation der einzelnen Ceph-Knoten und auch Corosync sehr latenzkritisch wäre. Ob mein geplantes 25G-Netz über 165m aber performant genug funktioniert oder nicht, konnte ich mir bisher nicht herleiten.
Falls die erdachte Konstellation völliger Mist ist, wäre ich für andere Ideen sehr dankbar.
Langsam wird mein Proxmox-Szenario konkreter, mit der Hardwareplanung bin ich schon recht weit fortgeschritten (Danke an dieser Stelle an @SkyDiver79 ). Jetzt möchte ich allerdings nochmal auf das Wissen aller hier zurückgreifen und ein paar Anregungen dazu, wie man einen Ceph-Cluster am elegantesten auf zwei Brandabschnitte verteilt um den Ausfall eines Abschnitts kompensieren zu können.
Folgende Hardware ist geplant:
6x Supermicro 1114S-WN10RT mit je 10 NVMe-SSDs als OSDs, 2 M.2 SSDs für's Betriebssystem, 2x 25G als Storage-Netzwerk und 6x 10G für Corosync, GUI und die VMs, EPYC 74F3, 512GB RAM
Um bei einem Ausfall das (?) Quorom erreichen zu können, brauche ich an irgendeiner Stelle einen zusätzlichen ceph-mon (und einen corosync-knoten?), wie ich das realisiere weiß ich noch nicht genau. Da wären Ideen und Vorschläge auf jeden Fall gerne gesehen
Wie man sich sicherlich an Hand der Config denken kann, stehen in jedem Brandabschnitt drei Supermicro-Maschinen. Ich habe zwischen den beiden Serverräumen 48 OM4 Fasern auf ca. 165m liegen. Das ergibt 24 anschließbare Module/GBICs, aktuell belegt sind 4. Sprich 20 hätte ich zur freien Verfügung. Außer, dass es "nur" OM4 ist, nicht die schlechtesten Voraussetzungen für das Vorhaben. Glaube ich jedenfalls bis jetzt ;-)
Ceph bietet mit Stretch Clusters im Prinzip genau das an, wie das im Zusammenspiel mit Proxmox funktioniert (oder ob es überhaupt funktioniert) weiß ich aber nicht. Bei meiner Recherche bin ich immer wieder darüber gestolpert, dass die Kommunikation der einzelnen Ceph-Knoten und auch Corosync sehr latenzkritisch wäre. Ob mein geplantes 25G-Netz über 165m aber performant genug funktioniert oder nicht, konnte ich mir bisher nicht herleiten.
Falls die erdachte Konstellation völliger Mist ist, wäre ich für andere Ideen sehr dankbar.