Außerdem, wie du das Full-Mesh aufgebaut hast (eine oder mehrere 100GB Karten),
Es ist in jedem Server eine Mellanox 5 MCX566A-EACT PCI3.0 DualPort über ETH SFP28.
Außerdem, wie du das Full-Mesh aufgebaut hast
NetzwerkBond mit beiden Ports auf der der MCX als Broadcast und MTU9000
Das auf allen 3 Nodes.
Verkabelt wie in Doku
https://pve.proxmox.com/wiki/Full_Mesh_Network_for_Ceph_Server
Der FullMesh ist rein für Ceph public and cluster.
Da laut Doku erst ab großen Setups zum trennen Empfehlungen vorliegen.
was machst du mit dem 1GB Port und mit den 2x10GB auf dem Board?
1GB Onboard-port ist rein für die Server Management Console
Onboard 1x10GB nutze ich PVE Frontend und Livemigration
Onboard unbenutzt bisher
Dann habe ich noch 4Port 1gb Intel Nic
Davon nutze ich 2 Ports für Corosync im Fullmeshsetup analog Ceph Bond nur ohne Jumbo frames
Und noch eine 4Port Intel X710 10GB Karte.
Diese ist nur als bridge für VMs gedacht.
Pro Node habe ich im Moment 128GB RAM DDR3200 4x32GB Riegel
du müsstest uns sagen wieviele Platten du in jedem Server
Pro Node habe ich 4 Platten 9300 MAX 3.2TB Micron
was ist das Ziel deiner Konfiguration?
Sehr warscheinlich liegt mein Echtbedarf weit unter meinem Setup.
Ich habe das System größer ausfallen lassen, da ich bisher starke performance Probleme bei MSSQL (Datenbank 10GB). auch auf dem angebotenen Fileserver zusammenbrechen des Netzes bei Datentransfer als auch Backups (Netzwerkverkehr als auch lese und schreibrate von single SSD aber auch HDD). War damals kein AllNVME und auch kein SAS-RAID.
Aufgrund des wie ich denke überdimensionierten Setups fliegen alle Client PCs raus (ca 15 ) und stelle auf ThinClients um.
Der Vorteil ist, dass der Bedarf durch das Setup mitwächst da sich neue Möglichkeiten öffnen.
Der Hintergrund meines Posts sollte darauf abziehlen das volle Potenzial für MSSQL nutzen können.