Hallo miteinander!
Wir haben ein bisschen Hardware und ein bisschen Budget und wollen damit einen kleinen Proxmox/Ceph Cluster bauen. Mich würde interessieren, ob das aus Eurer Sicht so Sinn macht, bzw. was wir noch ändern können/sollten.
Vorhandene Hardware:
3 x HP DL360 G7 (für Proxmox VM)
- 64GB
- 2 x Intel X5675 @3.07Ghz (6 Core - also 24 Threads pro Node)
- 120GB Samsung SM863 SSD für OS (oder alternativ 2 x kleine SAS)
- IBM M1015 als HBA im IT-Mode
dazu wollen wir noch:
3 x HP SE326M1 (für (Proxmox) Ceph)
- 12 LFF 3,5" HDD Einschübe (nur teilweise bestückt - siehe unten)
- 24 GB
- 2 x Quad Core CPU (also 16 Threads)
- IBM M1015 als HBA
- Samsung SM863 als OS und pro 4-5 OSD eine als Journal
Grob gesagt soll auf den SE326 eine Proxmox-Installation mit Ceph laufen und einen HDD-Pool bilden. Wir starten mit 3 x 4 TB pro Node (Hitachi 4GB mit 7.200). Wenn alles rund läuft wird hier zeitnah nachgelegt.
Auf den DL360 sollen primär die VM laufen. Zum Start etwa 5 x Windows 2012 und 5-10 Linux VM als KVM/LXC. RAM würden wir ggf. noch nachrüsten falls nötig.
Zusätzlich soll auf diesen (da noch 2,5" Slots frei sind) ein Ceph-SSD-Pool eingerichtet werden. Pro DL360 2 x 480GB Samsung SM863. Auf diesem SSD-Pool sollen dann auch alle VM-Images liegen sodass wir diese tendenziell alle als HA laufen lassen können. Ebenso würde ich hier die Monitore laufen lassen.
Sofern Ceph Jewel verfügbar ist wäre CephFS sicherlich auch mal einen Test wert. Wir hätten noch einen Storage-Server mit identischen CPU/RAM wie die HP DL360 den wir anstelle eines SE326 nehmen könnten (wg. mehr CPU-Power für CephFS sinnvoll?).
Für das CEPH-Netzwerk (Ceph-Traffic und VM-Anbindung) wollen wir auf Infiniband gehen. Angedacht ist ein HP Voltaire 4036-Switch und in jeden Host ConnectX-2 Karten.
Jeder VM-Server hat noch 4 x 1 Gbit Uplink zur Verfügung die ich je nach Bedarf an die VM weiter reichen würde.
Noch ein paar Fragen die mir im Sinn sind:
- Kann ich das IB-Netz zusammen mit Ethernet 1GB bonden zwecks Ausfallsicherheit? Für Infiband muss ich ja ohnehin IBoIP nutzen (?)
- Sollten es Dual-IB-Karten sein, damit CEPH Replikationstraffic und der VM-Traffic über getrennte Interface laufen?
- Sollten die OS-Platten gespiegelt sein (macht halt gleich nochmal 600,- zusätzlich)?
- SSD für OS notwendig oder SAS/SATA ausreichend (wg. Monitor-Logs ...)
- Reichen die Cluster-Reserven um mal einen Tag über die Runden zu kommen bei einem Ausfall eines Nodes? Wir wollen nächtliche Rufbereitschafseinsätze möglichst vermeiden wenn mal etwas ausfällt. In Zukunft würden wir die restlichen Komponenten soweit noch nicht vorhanden dann auch noch redundant auslegen.
Macht das alles halbwegs Sinn?
Danke für Eure Mühen und Gruß
Tim
Wir haben ein bisschen Hardware und ein bisschen Budget und wollen damit einen kleinen Proxmox/Ceph Cluster bauen. Mich würde interessieren, ob das aus Eurer Sicht so Sinn macht, bzw. was wir noch ändern können/sollten.
Vorhandene Hardware:
3 x HP DL360 G7 (für Proxmox VM)
- 64GB
- 2 x Intel X5675 @3.07Ghz (6 Core - also 24 Threads pro Node)
- 120GB Samsung SM863 SSD für OS (oder alternativ 2 x kleine SAS)
- IBM M1015 als HBA im IT-Mode
dazu wollen wir noch:
3 x HP SE326M1 (für (Proxmox) Ceph)
- 12 LFF 3,5" HDD Einschübe (nur teilweise bestückt - siehe unten)
- 24 GB
- 2 x Quad Core CPU (also 16 Threads)
- IBM M1015 als HBA
- Samsung SM863 als OS und pro 4-5 OSD eine als Journal
Grob gesagt soll auf den SE326 eine Proxmox-Installation mit Ceph laufen und einen HDD-Pool bilden. Wir starten mit 3 x 4 TB pro Node (Hitachi 4GB mit 7.200). Wenn alles rund läuft wird hier zeitnah nachgelegt.
Auf den DL360 sollen primär die VM laufen. Zum Start etwa 5 x Windows 2012 und 5-10 Linux VM als KVM/LXC. RAM würden wir ggf. noch nachrüsten falls nötig.
Zusätzlich soll auf diesen (da noch 2,5" Slots frei sind) ein Ceph-SSD-Pool eingerichtet werden. Pro DL360 2 x 480GB Samsung SM863. Auf diesem SSD-Pool sollen dann auch alle VM-Images liegen sodass wir diese tendenziell alle als HA laufen lassen können. Ebenso würde ich hier die Monitore laufen lassen.
Sofern Ceph Jewel verfügbar ist wäre CephFS sicherlich auch mal einen Test wert. Wir hätten noch einen Storage-Server mit identischen CPU/RAM wie die HP DL360 den wir anstelle eines SE326 nehmen könnten (wg. mehr CPU-Power für CephFS sinnvoll?).
Für das CEPH-Netzwerk (Ceph-Traffic und VM-Anbindung) wollen wir auf Infiniband gehen. Angedacht ist ein HP Voltaire 4036-Switch und in jeden Host ConnectX-2 Karten.
Jeder VM-Server hat noch 4 x 1 Gbit Uplink zur Verfügung die ich je nach Bedarf an die VM weiter reichen würde.
Noch ein paar Fragen die mir im Sinn sind:
- Kann ich das IB-Netz zusammen mit Ethernet 1GB bonden zwecks Ausfallsicherheit? Für Infiband muss ich ja ohnehin IBoIP nutzen (?)
- Sollten es Dual-IB-Karten sein, damit CEPH Replikationstraffic und der VM-Traffic über getrennte Interface laufen?
- Sollten die OS-Platten gespiegelt sein (macht halt gleich nochmal 600,- zusätzlich)?
- SSD für OS notwendig oder SAS/SATA ausreichend (wg. Monitor-Logs ...)
- Reichen die Cluster-Reserven um mal einen Tag über die Runden zu kommen bei einem Ausfall eines Nodes? Wir wollen nächtliche Rufbereitschafseinsätze möglichst vermeiden wenn mal etwas ausfällt. In Zukunft würden wir die restlichen Komponenten soweit noch nicht vorhanden dann auch noch redundant auslegen.
Macht das alles halbwegs Sinn?
Danke für Eure Mühen und Gruß
Tim