Moin Leute,
ich könnte etwas Hilfestellung gebrauchen.
Eins meiner Nodes hat zwei Netzwerkinterfaces.
Eine I226v, die Problemlos funktioniert und beim Start auch automatisch UP kommt und eine X520/82599ES (angebunden via thunderbolt), die bei Start nicht automatisch UP kommt und ein
Nach dem service-restart ist das interface allerdings normal online und kann verwendet werden.
hier noch ein paar infos:
vmbr0 ist hier das Hauptnetz (mit der X520) und vmbr1 ein zweiter Corosync-Ring der gleichzeitig als Bridge für die WAN-Verbindung meiner virtuellen OPNsense fungiert.
Die grundsätzliche Konfig muss eigentlich passen, da nach einem service-restart alles funktioniert.
Ich würde nur gern rausfinden, warum der Service-Restart überhaupt notwendig ist.
Die Karte hat übrigens schonmal einwandfrei funktioniert, allerdings ist das schon ein paar Kernelversionen/Updates her.
Ich reboote den Node nicht bei jeder gelegenheit, daher habe ich das erst jetzt gemerkt, dass das Interface nicht automatisch hochkommt.
ich könnte etwas Hilfestellung gebrauchen.
Eins meiner Nodes hat zwei Netzwerkinterfaces.
Eine I226v, die Problemlos funktioniert und beim Start auch automatisch UP kommt und eine X520/82599ES (angebunden via thunderbolt), die bei Start nicht automatisch UP kommt und ein
systemctl restart networking benötigt.Nach dem service-restart ist das interface allerdings normal online und kann verwendet werden.
hier noch ein paar infos:
Code:
root@pve3:~# pveversion -v
proxmox-ve: 9.1.0 (running kernel: 7.0.0-2-pve)
pve-manager: 9.1.9 (running version: 9.1.9/ee7bad0a3d1546c9)
proxmox-kernel-helper: 9.0.4
proxmox-kernel-7.0: 7.0.0-2
proxmox-kernel-7.0.0-2-pve-signed: 7.0.0-2
proxmox-kernel-6.17: 6.17.13-3
proxmox-kernel-6.17.13-3-pve-signed: 6.17.13-3
proxmox-kernel-6.17.13-2-pve-signed: 6.17.13-2
proxmox-kernel-6.17.13-1-pve-signed: 6.17.13-1
proxmox-kernel-6.17.9-1-pve-signed: 6.17.9-1
proxmox-kernel-6.17.4-2-pve-signed: 6.17.4-2
proxmox-kernel-6.14: 6.14.11-6
proxmox-kernel-6.14.11-6-pve-signed: 6.14.11-6
proxmox-kernel-6.14.11-5-pve-signed: 6.14.11-5
proxmox-kernel-6.14.8-2-pve-signed: 6.14.8-2
ceph-fuse: 19.2.3-pve1
corosync: 3.1.10-pve2
criu: 4.1.1-1
frr-pythontools: 10.4.1-1+pve1
ifupdown2: 3.3.0-1+pmx12
intel-microcode: 3.20251111.1~deb13u1
ksm-control-daemon: 1.5-1
libjs-extjs: 7.0.0-5
libproxmox-acme-perl: 1.7.1
libproxmox-backup-qemu0: 2.0.2
libproxmox-rs-perl: 0.4.1
libpve-access-control: 9.0.7
libpve-apiclient-perl: 3.4.2
libpve-cluster-api-perl: 9.1.2
libpve-cluster-perl: 9.1.2
libpve-common-perl: 9.1.11
libpve-guest-common-perl: 6.0.2
libpve-http-server-perl: 6.0.5
libpve-network-perl: 1.3.0
libpve-notify-perl: 9.1.2
libpve-rs-perl: 0.13.0
libpve-storage-perl: 9.1.2
libspice-server1: 0.15.2-1+b1
lvm2: 2.03.31-2+pmx1
lxc-pve: 6.0.5-4
lxcfs: 6.0.4-pve1
novnc-pve: 1.6.0-4
proxmox-backup-client: 4.1.8-1
proxmox-backup-file-restore: 4.1.8-1
proxmox-backup-restore-image: 1.0.0
proxmox-firewall: 1.2.2
proxmox-kernel-helper: 9.0.4
proxmox-mail-forward: 1.0.2
proxmox-mini-journalreader: 1.6
proxmox-offline-mirror-helper: 0.7.3
proxmox-widget-toolkit: 5.1.9
pve-cluster: 9.1.2
pve-container: 6.1.4
pve-docs: 9.1.2
pve-edk2-firmware: 4.2025.05-2
pve-esxi-import-tools: 1.0.1
pve-firewall: 6.0.4
pve-firmware: 3.18-3
pve-ha-manager: 5.2.0
pve-i18n: 3.7.0
pve-qemu-kvm: 10.1.2-7
pve-xtermjs: 5.5.0-3
qemu-server: 9.1.8
smartmontools: 7.4-pve1
spiceterm: 3.4.2
swtpm: 0.8.0+pve3
vncterm: 1.9.2
zfsutils-linux: 2.4.1-pve1
Code:
auto lo
iface lo inet loopback
iface enx803f5dfdb9b2 inet manual
iface enp85s0 inet manual
iface ens1f0 inet manual
iface ens1f1 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.0.230/24
gateway 192.168.0.252
bridge-ports ens1f0
bridge-stp off
bridge-fd 0
iface wlp86s0f0 inet manual
auto vmbr1
iface vmbr1 inet static
address 192.168.1.230/24
bridge-ports enp85s0
bridge-stp off
bridge-fd 0
source /etc/network/interfaces.d/*
vmbr0 ist hier das Hauptnetz (mit der X520) und vmbr1 ein zweiter Corosync-Ring der gleichzeitig als Bridge für die WAN-Verbindung meiner virtuellen OPNsense fungiert.
Die grundsätzliche Konfig muss eigentlich passen, da nach einem service-restart alles funktioniert.
Ich würde nur gern rausfinden, warum der Service-Restart überhaupt notwendig ist.
Die Karte hat übrigens schonmal einwandfrei funktioniert, allerdings ist das schon ein paar Kernelversionen/Updates her.
Ich reboote den Node nicht bei jeder gelegenheit, daher habe ich das erst jetzt gemerkt, dass das Interface nicht automatisch hochkommt.