Hallo zusammen,
ich bin gerade dabei einen Proxmox VE + Backup Server Prototypen aufzubauen. Ziel ist die Ablösung eines lokalen 8 Knoten VMware Clusters inkl. vSAN und Veeam Backup. Für den Testbetrieb habe ich mindestens 4 bis 5 Server für PVE mit 10 NICs je Server zur Verfügung und einen Super Micro Server mit 24 HDDs für das Backup. Alles "altes" Zeug aber für den Test wird es wohl reichen, sollten die Tests erfolgreich sein wird neue Hardware für den Cluster angeschafft.
Ich habe hier soweit auch alles bereits einmal durchgespielt und am laufen, einzig bei der Netzwerkkonfiguration tue ich mich etwas schwer. Ich möchte natürlich alles "richtig" machen und versuche deshalb herrauszufinden wie denn die Netzwerke unter Proxmox am besten eingerichtet werden.
Vorab, ich möchte das ganze mit OVS realisieren aber das sollte bei den grundlegenden Fragen eigentlich erst einmal keine Rolle spielen.
Für die ersten Tests hatte ich erst einmal alles über ein Netz laufen lassen, es ging am Anfang hauptsächlich um die Möglichkeit vorhandene Features mit Proxmox nachbauen zu können. Diese Funktionalitäten sind soweit die bisherigen Tests zeigen, gegeben.
Jetzt aber zu meinen Fragen, ich habe die Dokus soweit alle gelesen (hoffe ich doch) und mir auch z.B. einen Vortrag von Alwin angesehen. In der Doku, in der folgenden Antwort von Alwin und auch im Vortrag wird immer wieder auf das weitere separieren der Netze hingewiesen.
Leider wird es nach VM Netzwerk, Cluster und Public Netzwerk (Ceph) mit der Doku etwas eng. Ich habe in einer älteren Doku noch etwas zum Migration Network (CLI Konfiguration) gefunden und anschließend gesehen das dieses Feature inzwischen auch in die Web UI eingebaut ist
Gibt es evtl. hier oder woanders einen best practise guide den ich bisher übersehen habe? Ich würde nämlich in der Tat gerne die Netze soweit wie möglich separieren um keine Flaschenhälse zu generieren.
Könnt ihr mir aufzeigen was ich alles benötige um so wenig wie möglich Störungen bzw. Einflüsse durch die verschiedenen Traffic Arten zu haben?
Welche Art von Traffic benötig welche Bandbreite bzw. wieviel Gigabits sollten mindestens zur verfügung gestellt werden?
Was kann man zusammen legen, evtl. über VLANs trennen und was sollte über separate NICs/Kabel/Switches fließen? Was macht Sinn was evtl. nicht?
Soweit ich das bisher gesehen habe sollten diese Dinge separiert werden:
Ceph public & cluster network - Das Cluster Network sollte wohl über den 54GBit Switch laufen? Was ist mit dem Public Network?
(VLANs) VM Guest Network traffic
Corosync (best two interfaces) - Hier habe ich zwei NICs pro Server und zwei separate Gigabit Switches für Ring0|1 vorgesehen
(Live) Migration network
Backup network für PBS
(OOB) Management network
(OSD) Replication traffic - Kann man den separieren? Sollte m.M. im Prinzip dem Ceph Cluster Network entsprechen.
(Cluster) Heartbeat traffic - Kann man den separieren? Sollte m.M. im Prinzip dem Ceph Cluster Network entsprechen.
Ich hab keine Ahnung ob ich alle Punkte oben aufgeführt bzw. bedacht habe, aber deshalb wende ich (Noob) mich ja ans Forum Ich hoffe doch hier gibt es ein paar findige User die mir bei dem ein oder andren Thema auf die Sprünge helfen können.
Soweit habe ich das bisher für mich aufgedröselt:
Bis dahin und habt eine gute Zeit
Volker
ich bin gerade dabei einen Proxmox VE + Backup Server Prototypen aufzubauen. Ziel ist die Ablösung eines lokalen 8 Knoten VMware Clusters inkl. vSAN und Veeam Backup. Für den Testbetrieb habe ich mindestens 4 bis 5 Server für PVE mit 10 NICs je Server zur Verfügung und einen Super Micro Server mit 24 HDDs für das Backup. Alles "altes" Zeug aber für den Test wird es wohl reichen, sollten die Tests erfolgreich sein wird neue Hardware für den Cluster angeschafft.
Ich habe hier soweit auch alles bereits einmal durchgespielt und am laufen, einzig bei der Netzwerkkonfiguration tue ich mich etwas schwer. Ich möchte natürlich alles "richtig" machen und versuche deshalb herrauszufinden wie denn die Netzwerke unter Proxmox am besten eingerichtet werden.
Vorab, ich möchte das ganze mit OVS realisieren aber das sollte bei den grundlegenden Fragen eigentlich erst einmal keine Rolle spielen.
Für die ersten Tests hatte ich erst einmal alles über ein Netz laufen lassen, es ging am Anfang hauptsächlich um die Möglichkeit vorhandene Features mit Proxmox nachbauen zu können. Diese Funktionalitäten sind soweit die bisherigen Tests zeigen, gegeben.
Jetzt aber zu meinen Fragen, ich habe die Dokus soweit alle gelesen (hoffe ich doch) und mir auch z.B. einen Vortrag von Alwin angesehen. In der Doku, in der folgenden Antwort von Alwin und auch im Vortrag wird immer wieder auf das weitere separieren der Netze hingewiesen.
None. Your servers need more NIC ports. Ceph public & cluster, VM traffic, corosync (best two interfaces) and maybe some extra for migration, backups or management.
Leider wird es nach VM Netzwerk, Cluster und Public Netzwerk (Ceph) mit der Doku etwas eng. Ich habe in einer älteren Doku noch etwas zum Migration Network (CLI Konfiguration) gefunden und anschließend gesehen das dieses Feature inzwischen auch in die Web UI eingebaut ist
Gibt es evtl. hier oder woanders einen best practise guide den ich bisher übersehen habe? Ich würde nämlich in der Tat gerne die Netze soweit wie möglich separieren um keine Flaschenhälse zu generieren.
Könnt ihr mir aufzeigen was ich alles benötige um so wenig wie möglich Störungen bzw. Einflüsse durch die verschiedenen Traffic Arten zu haben?
Welche Art von Traffic benötig welche Bandbreite bzw. wieviel Gigabits sollten mindestens zur verfügung gestellt werden?
Was kann man zusammen legen, evtl. über VLANs trennen und was sollte über separate NICs/Kabel/Switches fließen? Was macht Sinn was evtl. nicht?
Soweit ich das bisher gesehen habe sollten diese Dinge separiert werden:
Ceph public & cluster network - Das Cluster Network sollte wohl über den 54GBit Switch laufen? Was ist mit dem Public Network?
(VLANs) VM Guest Network traffic
Corosync (best two interfaces) - Hier habe ich zwei NICs pro Server und zwei separate Gigabit Switches für Ring0|1 vorgesehen
(Live) Migration network
Backup network für PBS
(OOB) Management network
(OSD) Replication traffic - Kann man den separieren? Sollte m.M. im Prinzip dem Ceph Cluster Network entsprechen.
(Cluster) Heartbeat traffic - Kann man den separieren? Sollte m.M. im Prinzip dem Ceph Cluster Network entsprechen.
Ich hab keine Ahnung ob ich alle Punkte oben aufgeführt bzw. bedacht habe, aber deshalb wende ich (Noob) mich ja ans Forum Ich hoffe doch hier gibt es ein paar findige User die mir bei dem ein oder andren Thema auf die Sprünge helfen können.
Soweit habe ich das bisher für mich aufgedröselt:
Code:
Interface IP Address Network Type Comment
ens18 192.168.18.11 management network ssh, web ui
ens19 192.168.19.11 ceph public network The Monitor, Manager, and metadata Services as well as Ceph Clients communicate on this network.
ens20 192.168.20.11 ceph cluster network OSDs route heartbeat, object replication and recovery traffic over the cluster network
ens21 192.168.21.11 corosync ring0 network Corosync handles the cluster communication in Proxmox VE
ens22 192.168.22.11 corosync ring1 network Corosync handles the cluster communication in Proxmox VE
ens23 192.168.23.11 live migration network
ens24 192.168.24.11 backup network
ens25 10.1.x.x vm vlan networks
ens26 noch nicht belegt
ens27 noch nicht belegt
Bis dahin und habt eine gute Zeit
Volker
Last edited: