Netzwerk Konfiguration mit mehreren NICs

uwka77

New Member
Sep 30, 2025
6
2
3
Hallo,

nach ca. 20 Jahren mit VMware (GSX, ESX und ESXi) möchte ich mal eine andere Virtualisierungslösung kennenlernen.

Allerdings habe ich da so meine Probleme mit der Konfiguration. Mein Bastel-Homeserver hat mehrere NIC's (1x Intel 2.5 GB, 4x Intel 1 GB). Die 2.5 GB NIC möchte ich für das Management Netzwerk inkl. Anbindung an einen NFS-Speicher nutzen, die VMs sollen sich über eine der anderen 1 GB NICs mit dem Internet od. VM-LAN verbinden. Das Thema LACP lasse ich mal außen vor, das kann mein Switch nicht.

Ich habe zwei Bridges erstellt: vmbr0 für das Management Netzwerk und vmbr1 für die VMs. Sobald ich vmbr1 erstellt habe, habe ich keinen Zugriff auf den NFS-Speicher mehr, der Zugriff auf die Webconsole funktioniert noch.

Ich vermute einen Designfehler in meinen Überlegungen - was mache ich falsch?

Anm.: Bei VMware (läuft über Multiboot auf der gleichen Maschine) mache ich es so : Ich packe alle LAN-Ports in einen vSwitch, den Rest erledigt VMware automatisch.

Grüße Uwe
 
Last edited:
Hallo,
nun wie bei allen Netzwerken, kann es nur einen geben.
Also einen default gateway.

Für jede VMBRx gilt, immer unterschiedliche Netzwerke zuordnen!
z.B.
Code:
vmbr0: 10.0.0.0/24, der Proxmox VE könnte dabei die 10.0.0.100 haben.
vmbr1: 10.0.1.0/24, der Proxmox VE könnte dabei die 10.0.1.100 haben.
Man kann mehrere reale NIC als ein Bündelzusammen fassen und es als BONDx betreiben.
Je nach Switch muss man schauen, was man einstellen kann.

Dann zeige bitte noch die reale Konfigdatei auf deinem Server /etc/network/* .

Du must Diich an die Möglichkeiten von Debian annähern:
# https://pve.proxmox.com/wiki/Network_Configuration
 
Last edited:
Gut, danke für die schnellen Antworten.

"Für jede VMBRx gilt, immer unterschiedliche Netzwerke zuordnen!" habe ich nicht beachtet. vmbr0 hat eine IP aus meinem realen LAN, in der auch die Synology mit dem NFS-Datastore und die Admin-WS hängen, alle sind an einen 2.5 GB Switch angeschlossen. Werde morgen vmbr1 neu erstellen und ihr ein anderes IP-Netzwerk zuweisen. Allerdings sollen die VMs an vmbr1 IP-Adressen aus meinem realen LAN erhalten, damit ich von den VMs auch auf andere phys. Geräte und natürlich das Internet zugreifen kann. Für eine VM ohne Zugang nach außen würde ich eine dritte vmbrx erstellen.

/etc/network/interfaces kann ich leider erst morgen posten, wenn ich vmbr1 erstellt habe.
 
So, ich bin wieder an meinem HomeLab.

Als erstes habe ich eine Konfiguration mit nur einer Bridge (vmbr0), an der nur eine NIC gebunden ist, getestet. An dieser Bridge sind auch die VMs angeschlossen. Läuft ohne Probleme. Ist aber nicht ganz praxisrelevant, denn ein Proxmox- od. VWware-Host hat ja schon aus Redundanzgründen mindestens zwei NICs.

Nächste Konfiguration ist die Konfiguration einer zweiten Bridge (vmbr1), die ich an eine zweite NIC binde. Beide NICs sind physisch und IP-technisch an ein und dasselbe LAN angeschlossen.

Hier die /etc/network/interfaces:

auto lo
iface lo inet loopback

auto enp4s0f0
iface enp4s0f0 inet manual

auto enp4s0f1
iface enp4s0f1 inet manual

auto enp5s0f0
iface enp5s0f0 inet manual

auto enp5s0f1
iface enp5s0f1 inet manual

auto ens4
iface ens4 inet manual

auto vmbr0
iface vmbr0 inet static
address 192.168.77.253/32
gateway 192.168.77.2
bridge-ports ens4
bridge-stp off
bridge-fd 0
#Management Network

auto vmbr1
iface vmbr1 inet static
address 192.168.0.1/32
bridge-ports enp4s0f0
bridge-stp off
bridge-fd 0
#VM Network

source /etc/network/interfaces.d/*

Diesmal habe ich Zugriff auf den NFS-Datastore und die VM (ist eine mit Windows 7 x86) hat auch Zugang zum LAN und zum Internet.
Damit ist mein Problem wohl gelöst - Dank an alle. Wieder etwas dazugelernt...
 
  • Like
Reactions: bl1mp and news
Ja, da ist die Verbindung auf jeden Fall weg, weil das Gateway nicht mehr im eigenen Subnetz erreichbar ist.

Schreibe hinter den
Code:
/
mal eine 24 also:

Code:
auto vmbr0
iface vmbr0 inet static
  address 192.168.77.253/24
  gateway 192.168.77.2
  bridge-ports ens4
  bridge-stp off
  bridge-fd 0

(Mal davon abgesehen das die Subnetzmaske, außer für spezielle Setups und Migrationen einheitlich gesetzt sein sollte im Subnetz.)

Dann solltest du auch weiterhin auf den Server kommen, wenn du dich mit den weiteren Netzwerkports beschäftigst. Dazu lohnt sich definitiv die Lektüre von https://www.kernel.org/doc/Documentation/networking/bonding.txt für einen Deepdive. (Besonders wenn LACP nicht unterstützt ist)

Für die weiteren vmbr musst du dem Host selber auch keine IP-Adressen zuweisen, falls er nicht erreichbar sein soll. Nur die Interfaces der Gäste die an der entsprechenden vmbr hängen sollten eine haben. Falls sie Zugriff auf das NAS brauchen, kannst du ihnen einfach zwei virtuelle Netzwerkinterfaces geben.

Viel Erfolg,
BG, Lucas
 
  • Like
Reactions: UdoB
Hm, die Subnetzmaske ist auf jeden Fall 255.255.255.0, also /24, da habt ihr recht - danke für den Hinweis.
Ich bin aber der Meinung, dass dieser Eintrag (address 192.168.77.253/24) bei der Installation des PE-Servers erstellt wurde.

Beim Erstellen der zweiten vmbr musste ich eine IP-angeben, ich habe willkürlich eine andere private genommen.

Im Moment funktioniert alles wie es soll.
 
Last edited:
  • Like
Reactions: bl1mp and UdoB
Mit den anderen Netzwerkports für die VMs muss ich mich noch beschäftigen. Das einfache Anlegen eines Bonds mit balance-rr hat jedenfalls nicht geklappt, da kommt keine Netzwerkverbindung der VM zu Stande.

Ich habe ja eigentlich einen (von 3) managbaren Switch mit LACP-Support (Netgear GS803T). Da ich den Server parallel für VMware benutze, gibt es da einen kleinen Konflikt - das kostenlose VMware unterstützt keine LACP-Ports und macht stattdessen ein statisches LAG. Da im Server aber eine 4-Port NIC von Intel steckt, könnte ich ja zwei Ports für VMware und zwei Ports mit LACP für Proxmox nehmen, für meine Spielchen würde es auf alle Fälle reichen.
 
Hallo,

nach ca. 20 Jahren mit VMware (GSX, ESX und ESXi) möchte ich mal eine andere Virtualisierungslösung kennenlernen.

Allerdings habe ich da so meine Probleme mit der Konfiguration. Meine Bastel-Homeserver hat mehrere NIC's (1x Intel 2.5 GB, 4x Intel 1 GB). Die 2.5 GB NIC möchte ich für das Management Netzwerk inkl. Anbindung an einen NFS-Speicher nutzen, die VMs sollen sich über eine der anderen 1 GB NICs mit dem Internet od. VM-LAN verbinden. Das Thema LACP lasse ich mal außen vor, das kann mein Switch nicht.

Ich habe zwei Bridges erstellt: vmbr0 für das Management Netzwerk und vmbr1 für die VMs. Sobald ich vmbr1 erstellt habe, habe ich keinen Zugriff auf den NFS-Speicher mehr, der Zugriff auf die Webconsole funktioniert noch.

Ich vermute einen Designfehler in meinen Überlegungen - was mache ich falsch?

Anm.: Bei VMware (läuft über Multiboot auf der gleichen Maschine) mache ich es so : Ich packe alle LAN-Ports in einen vSwitch, den Rest erledigt VMware automatisch.
Hi Uwe,
wenn du bei VMware einen vSwitch mit mehreren Ports benutzt, dann hast du in Linux Übersetzt eine vmBridge und die zwei Uplinkports entsprechen einem Bond.
Wenn dein Switch kein LACP kann, könntest du ein Bond mit Active/Backup oder mit LoadBalance erstellen und das Bond als Uplink für die Bridge nutzen.
Quasi so wie man es bei HyperV auch macht. ;)
Wenn du den Traffic sauber trennen willst, gib doch nur der Managenemt Bridge eine IP und der zweiten Bridge für die VMs keine IP geben, dann läuft das eigentlich auch.
 
Moin,

ich habe mal noch ein wenig Finetuning in Auswertung der vielen Tipps betrieben.
- die zweite Bridge für die VMs hat keine IP mehr
- ich habe einen Bond aus zwei NIC-Ports mit "balance-alb" erstellt und diesen der zweiten Bridge zugewiesen. Beim Bond-Modus "balance-rr" hatte die VM keine IP-Adresse erhalten.