Hallo zusammen,
ich habe meine beiden Proxmox Hosts mit lokalem Storage, mit jeweils 4x 1 Gigabit Ethernet an einen Switch (Gigabit Switch) angebunden.
Die Ports sind auf beiden Seiten als LACP 2+3 konfiguriert.
Genutzt werden Linux Bridges sowie ein Linux Bond, OVS ist nicht im Einsatz.
Über den Bond laufen verschiedene VM VLANs. (vmbr MTU 1500)
Außer dem Bond gibt es keine weiteren Netzwerkanbindung zwischen den Hosts oder zum Switch.
Die Idee war, so möglichst die beste Leistung zu erreichen.
Es gibt kein Dediziertes Netzwerk für die VM Migration, auch ist die Konfiguration auf "insecure" gestellt um einen möglichen Flaschenhals (CPU) auszuschließen.
Wenn eine, zwei oder mehr VMs von HostA mit lokalem Storage, zu HostB mit lokalem Storage gleichzeitig migriert werden, wird maximal 1 Gigabit/s Durchsatz im Bond erreicht.
Der Traffic läuft über ein einziges Interface im Bond.
Meine Erwartung wäre gewesen, dass mit mehreren parallel kopierten VMs, die Kapazität des Bonds genutzt wird.
Nutze ich iperf und lege last auf den Bond, erreiche ich maximal 2 Gigabit/s.
Der Traffic wird nicht über die virtualierte Firewall geroutet.
enp2s0, enp3s0, enp4s0 und enp5s0 sind mitglieder des bond0
vmbr2 ist die bridge mit den VLANs an der die VMs hängen, bzw. das Server Netz 192.168.1.0/24 welches ohne VLANs konfiguriert ist.
Meine Fragen dazu:
Vielen Dank für eure Hilfe.
Gruß,
Boppel
ich habe meine beiden Proxmox Hosts mit lokalem Storage, mit jeweils 4x 1 Gigabit Ethernet an einen Switch (Gigabit Switch) angebunden.
Die Ports sind auf beiden Seiten als LACP 2+3 konfiguriert.
Genutzt werden Linux Bridges sowie ein Linux Bond, OVS ist nicht im Einsatz.
Über den Bond laufen verschiedene VM VLANs. (vmbr MTU 1500)
Außer dem Bond gibt es keine weiteren Netzwerkanbindung zwischen den Hosts oder zum Switch.
Die Idee war, so möglichst die beste Leistung zu erreichen.
Es gibt kein Dediziertes Netzwerk für die VM Migration, auch ist die Konfiguration auf "insecure" gestellt um einen möglichen Flaschenhals (CPU) auszuschließen.
Wenn eine, zwei oder mehr VMs von HostA mit lokalem Storage, zu HostB mit lokalem Storage gleichzeitig migriert werden, wird maximal 1 Gigabit/s Durchsatz im Bond erreicht.
Der Traffic läuft über ein einziges Interface im Bond.
Meine Erwartung wäre gewesen, dass mit mehreren parallel kopierten VMs, die Kapazität des Bonds genutzt wird.
Nutze ich iperf und lege last auf den Bond, erreiche ich maximal 2 Gigabit/s.
Der Traffic wird nicht über die virtualierte Firewall geroutet.
enp2s0, enp3s0, enp4s0 und enp5s0 sind mitglieder des bond0
vmbr2 ist die bridge mit den VLANs an der die VMs hängen, bzw. das Server Netz 192.168.1.0/24 welches ohne VLANs konfiguriert ist.
Meine Fragen dazu:
- Habe ich einen Denkfehler in meinem Aufbau?
- Kann KSM (memory dedup) ein signifikante Rolle dabei spielen? (Ich vermute eher nicht)
- Darf die MTU des vmbr generell auf 9000 gestellt werden, wenn alle Parteien damit umgehen können? Auch wenn VMs die über den Bond laufen, selbst nur eine MTU von 1500 haben?
Vielen Dank für eure Hilfe.
Gruß,
Boppel
Attachments
Last edited: