VM nach Migration nicht lauffähig außer es werden einige vNICs entfernt

Dunuin

Distinguished Member
Jun 30, 2020
14,774
4,497
258
Germany
Hallo,

Heute habe ich auch selbst mal ein Problem und könnte da einen Dankanstoß gebrauchen.
Ich habe hier eine OPNsense VM die bei mir zwischen diversen VLANs routet. Da meine PVE Nodes (alle Standalone) sehr verschiedene Netzwerk-Anbindungen haben (von einzelner Gbit NIC für alle tagged VLANs bis hin zu VLANs über 2x Gbit + 4x Gbit als Bond + 10Gbit verteilt) und ich trotzdem gerne in der Lage wäre die VMs ohne große Konfig-Änderungen zwischen den Nodes zu verschieben, bin ich beim klassischen Netzwerk-Layout mit einem VLAN Interface + Bridge je VLAN anstatt von vlan-aware Bridges geblieben.
Bisher hat das auch soweit gut geklappt. Nun wollte ich jedoch die gut laufende OPNsense VM von dem Node "Voyager" (3x Intel Gbit NICs, eine davon für Management, die anderen beiden als Bond für den Rest) auf den Node "Shuttle" (einzelne RTL8168 Gbit NIC die ja bekanntlich in der Vergangenheit ihre Probleme hatte) migrieren, aber diese ist danach nicht mehr startfähig. Migration hatte ich mehrfach versucht über ein Backup + Verify + Restore zum/vom PBS.

Wenn ich die migrierte VM starten will schlägt dieses fehl mit einem "Error: unexpected status" bzw "got timeout":
Code:
task-Shuttle-qmstart-2024-09-15T11_35_53Z.log:
swtpm_setup: Not overwriting existing state file.
TASK ERROR: start failed: command '/usr/bin/kvm -id 10001 -name 'OPNsenseBackup,debug-threads=on' -no-shutdown -chardev 'socket,id=qmp,path=/var/run/qemu-server/10001.qmp,server=on,wait=off' -mon 'chardev=qmp,mode=control' -chardev 'socket,id=qmp-event,path=/var/run/qmeventd.sock,reconnect=5' -mon 'chardev=qmp-event,mode=control' -pidfile /var/run/qemu-server/10001.pid -daemonize -smbios 'type=1,uuid=287e1dff-4043-4b01-82d6-498bd5f04985' -drive 'if=pflash,unit=0,format=raw,readonly=on,file=/usr/share/pve-edk2-firmware//OVMF_CODE_4M.secboot.fd' -drive 'if=pflash,unit=1,id=drive-efidisk0,format=raw,file=/dev/zvol/VMpool/vlt/guest/VM_8K/vm-10001-disk-0,size=540672' -smp '3,sockets=1,cores=3,maxcpus=3' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vnc 'unix:/var/run/qemu-server/10001.vnc,password=on' -cpu host,+kvm_pv_eoi,+kvm_pv_unhalt -m 2048 -object 'iothread,id=iothread-virtioscsi0' -readconfig /usr/share/qemu-server/pve-q35-4.0.cfg -device 'vmgenid,guid=1ade3171-7d50-4c11-83b2-d25cfa9b34ad' -device 'usb-tablet,id=tablet,bus=ehci.0,port=1' -chardev 'socket,id=tpmchar,path=/var/run/qemu-server/10001.swtpm' -tpmdev 'emulator,id=tpmdev,chardev=tpmchar' -device 'tpm-tis,tpmdev=tpmdev' -device 'VGA,id=vga,bus=pcie.0,addr=0x1' -chardev 'socket,path=/var/run/qemu-server/10001.qga,server=on,wait=off,id=qga0' -device 'virtio-serial,id=qga0,bus=pci.0,addr=0x8' -device 'virtserialport,chardev=qga0,name=org.qemu.guest_agent.0' -object 'rng-random,filename=/dev/urandom,id=rng0' -device 'virtio-rng-pci,rng=rng0,max-bytes=1024,period=1000,bus=pci.1,addr=0x1d' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:571d75a0c32d' -drive 'if=none,id=drive-ide2,media=cdrom,aio=io_uring' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=101' -device 'virtio-scsi-pci,id=virtioscsi0,bus=pci.3,addr=0x1,iothread=iothread-virtioscsi0' -drive 'file=/dev/zvol/VMpool/vlt/guest/VM_8K/vm-10001-disk-1,if=none,id=drive-scsi0,discard=on,format=raw,cache=none,aio=io_uring,detect-zeroes=unmap' -device 'scsi-hd,bus=virtioscsi0.0,channel=0,scsi-id=0,lun=0,drive=drive-scsi0,id=scsi0,rotation_rate=1,bootindex=100' -netdev 'type=tap,id=net0,ifname=tap10001i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:99:9D:09,netdev=net0,bus=pci.0,addr=0x12,id=net0,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net1,ifname=tap10001i1,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:30:17:8D,netdev=net1,bus=pci.0,addr=0x13,id=net1,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net2,ifname=tap10001i2,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:89:9E:5C,netdev=net2,bus=pci.0,addr=0x14,id=net2,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net3,ifname=tap10001i3,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:65:33:28,netdev=net3,bus=pci.0,addr=0x15,id=net3,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net4,ifname=tap10001i4,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:DF:8A:B0,netdev=net4,bus=pci.0,addr=0x16,id=net4,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net5,ifname=tap10001i5,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:53:1C:19,netdev=net5,bus=pci.0,addr=0x17,id=net5,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net6,ifname=tap10001i6,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:6C:B2:D8,netdev=net6,bus=pci.1,addr=0x1,id=net6,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net7,ifname=tap10001i7,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:5A:D3:D5,netdev=net7,bus=pci.1,addr=0x2,id=net7,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net8,ifname=tap10001i8,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:AB:B0:CA,netdev=net8,bus=pci.1,addr=0x3,id=net8,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net9,ifname=tap10001i9,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:E2:44:AA,netdev=net9,bus=pci.1,addr=0x4,id=net9,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net10,ifname=tap10001i10,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:73:69:E6,netdev=net10,bus=pci.1,addr=0x5,id=net10,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net11,ifname=tap10001i11,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:08:D4:18,netdev=net11,bus=pci.1,addr=0x6,id=net11,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net12,ifname=tap10001i12,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:8B:C8:DD,netdev=net12,bus=pci.1,addr=0x7,id=net12,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net13,ifname=tap10001i13,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:C8:44:A7,netdev=net13,bus=pci.1,addr=0x8,id=net13,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net14,ifname=tap10001i14,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:26:DA:EB,netdev=net14,bus=pci.1,addr=0x9,id=net14,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net15,ifname=tap10001i15,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:F9:79:75,netdev=net15,bus=pci.1,addr=0xa,id=net15,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net16,ifname=tap10001i16,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on,queues=3' -device 'virtio-net-pci,mac=BC:24:11:BC:5B:FE,netdev=net16,bus=pci.1,addr=0xb,id=net16,vectors=8,mq=on,packed=on,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -machine 'type=q35+pve0'' failed: got timeout

RAM ist genug vorhanden und die 2GB vRAM und 3 vCPUs sollten auch OK sein (ist eine 4 Core CPU und 10GB RAM verfügbar). Dann hatte ich versucht die CPU von "host" auf "kvm64" umzustellen, aber auch das brachte nichts. Danach habe ich alle anderen VMs auf dem Node gestoppt aber auch das half nichts.
Meine nächste Idee war, dass da vielleicht etwas mit dem Netzwerk nicht passt, da eine VM mit 17 virtio NICs ja nicht so üblich ist.
Ich habe dann angefangen nach und nach die virtio NICs zu entfernen und nachdem ich "net9" bis "net16" entfernt hatte, ließ sich die VM dann auch starten:
Code:
task-Shuttle-qmstart-2024-09-15T11_30_40Z.log:
swtpm_setup: Not overwriting existing state file.
TASK OK

Jetzt stellt sich mir die Frage, wo da das Problem genau liegt. Beide Nodes sollten eigentlich die gleichen Bridges haben und ich sehe da bei der Netzwerk-Konfig auch keine Fehler.
Kann man das irgendwie weiter debuggen, um zu gucken, was QEMU da an den letzten 8 vNICs stört?

Hier nochmal die VM Konfigs:

Code:
root@Shuttle:~# qm config 10001
agent: 1
balloon: 0
bios: ovmf
boot: order=scsi0;ide2
cores: 3
cpu: host
efidisk0: ZFS_8K:vm-10001-disk-0,efitype=4m,size=1M
ide2: none,media=cdrom
machine: q35
memory: 2048
meta: creation-qemu=8.1.2,ctime=1706577238
name: OPNsenseBackup
net0: virtio=BC:24:11:99:9D:09,bridge=vmbr2,firewall=1,mtu=1500,queues=3
net1: virtio=BC:24:11:30:17:8D,bridge=vmbr61,firewall=1,mtu=1500,queues=3
net10: virtio=BC:24:11:73:69:E6,bridge=vmbr110,firewall=1,mtu=1500,queues=3
net11: virtio=BC:24:11:08:D4:18,bridge=vmbr111,firewall=1,mtu=1500,queues=3
net12: virtio=BC:24:11:8B:C8:DD,bridge=vmbr120,firewall=1,mtu=1500,queues=3
net13: virtio=BC:24:11:C8:44:A7,bridge=vmbr121,firewall=1,mtu=1500,queues=3
net14: virtio=BC:24:11:26:DA:EB,bridge=vmbr130,firewall=1,mtu=1500,queues=3
net15: virtio=BC:24:11:F9:79:75,bridge=vmbr140,firewall=1,mtu=1500,queues=3
net16: virtio=BC:24:11:BC:5B:FE,bridge=vmbr150,firewall=1,mtu=1500,queues=3
net2: virtio=BC:24:11:89:9E:5C,bridge=vmbr60,firewall=1,mtu=1500,queues=3
net3: virtio=BC:24:11:65:33:28,bridge=vmbr70,firewall=1,mtu=1500,queues=3
net4: virtio=BC:24:11:DF:8A:B0,bridge=vmbr71,firewall=1,mtu=1500,queues=3
net5: virtio=BC:24:11:53:1C:19,bridge=vmbr80,firewall=1,mtu=1500,queues=3
net6: virtio=BC:24:11:6C:B2:D8,bridge=vmbr81,firewall=1,mtu=1500,queues=3
net7: virtio=BC:24:11:5A:D3:D5,bridge=vmbr90,firewall=1,mtu=1500,queues=3
net8: virtio=BC:24:11:AB:B0:CA,bridge=vmbr91,firewall=1,mtu=1500,queues=3
net9: virtio=BC:24:11:E2:44:AA,bridge=vmbr100,firewall=1,mtu=1500,queues=3
numa: 0
onboot: 1
ostype: other
rng0: source=/dev/urandom
scsi0: ZFS_8K:vm-10001-disk-1,discard=on,iothread=1,size=32G,ssd=1
scsihw: virtio-scsi-single
smbios1: uuid=287e1dff-4043-4b01-82d6-498bd5f04985
sockets: 1
startup: order=100,up=120
tags: host_voyager
tpmstate0: ZFS_8K:vm-10001-disk-2,size=4M,version=v2.0
vmgenid: 1ade3171-7d50-4c11-83b2-d25cfa9b34ad

Code:
qm config 10001
agent: 1
balloon: 0
bios: ovmf
boot: order=scsi0;ide2
cores: 3
cpu: host
efidisk0: ZFS_8K:vm-10001-disk-0,efitype=4m,size=1M
ide2: none,media=cdrom
machine: q35
memory: 2048
meta: creation-qemu=8.1.2,ctime=1706577238
name: OPNsenseBackup
net0: virtio=BC:24:11:99:9D:09,bridge=vmbr2,firewall=1,mtu=1500,queues=3
net1: virtio=BC:24:11:30:17:8D,bridge=vmbr61,firewall=1,mtu=1500,queues=3
net2: virtio=BC:24:11:89:9E:5C,bridge=vmbr60,firewall=1,mtu=1500,queues=3
net3: virtio=BC:24:11:65:33:28,bridge=vmbr70,firewall=1,mtu=1500,queues=3
net4: virtio=BC:24:11:DF:8A:B0,bridge=vmbr71,firewall=1,mtu=1500,queues=3
net5: virtio=BC:24:11:53:1C:19,bridge=vmbr80,firewall=1,mtu=1500,queues=3
net6: virtio=BC:24:11:6C:B2:D8,bridge=vmbr81,firewall=1,mtu=1500,queues=3
net7: virtio=BC:24:11:5A:D3:D5,bridge=vmbr90,firewall=1,mtu=1500,queues=3
net8: virtio=BC:24:11:AB:B0:CA,bridge=vmbr91,firewall=1,mtu=1500,queues=3
numa: 0
onboot: 1
ostype: other
rng0: source=/dev/urandom
scsi0: ZFS_8K:vm-10001-disk-1,discard=on,iothread=1,size=32G,ssd=1
scsihw: virtio-scsi-single
smbios1: uuid=287e1dff-4043-4b01-82d6-498bd5f04985
sockets: 1
startup: order=100,up=120
tags: host_voyager
tpmstate0: ZFS_8K:vm-10001-disk-2,size=4M,version=v2.0
vmgenid: 1ade3171-7d50-4c11-83b2-d25cfa9b34ad

Edit:
Achso, beide Nodes sind PVE 8.2.4 mit den neusten Patches der Nosub-Repos.
 
Last edited:
Code:
root@Voyager:~# cat /etc/network/interfaces
# network interface settings; autogenerated
# Please do NOT modify this file directly, unless you know what
# you're doing.
#
# If you want to manage parts of the network configuration manually,
# please utilize the 'source' or 'source-directory' directives to do
# so.
# PVE will preserve these directives, but will NOT read its network
# configuration from sourced files, so do not attempt to move any of
# the PVE managed interfaces into external files!

auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual
        mtu 9000
#left onboard Gbit NIC (member of bond0)

auto eno2
iface eno2 inet manual
        mtu 1500
#right onboard Gbit NIC (MNGT) (Untagged VLAN: 61; Tagged VLANS: -)

auto enp4s0
iface enp4s0 inet manual
        mtu 9000
#PCIe Gbit NIC (member of bond0)

auto bond0
iface bond0 inet manual
        bond-slaves eno1 enp4s0
        bond-miimon 100
        bond-mode 802.3ad
        bond-xmit-hash-policy layer3+4
        mtu 9000
# (Untagged VLAN: -; Tagged VLANS: 2-4 10 41-51 60 62-64 70-74 80-83 90-93 100 110-113 120-123 130 140 150)

auto bond0.2
iface bond0.2 inet manual
        mtu 1500
#WAN vlan

auto bond0.3
iface bond0.3 inet manual
        mtu 1500
#FFWAN vlan

auto bond0.4
iface bond0.4 inet manual
        mtu 1500
#SYNC vlan (alt)

auto bond0.10
iface bond0.10 inet manual
        mtu 9000
#TNREP vlan

auto bond0.41
iface bond0.41 inet manual
        mtu 1500
#RETRO vlan (alt)

auto bond0.42
iface bond0.42 inet manual
        mtu 1500
#DMZ vlan (alt)

auto bond0.43
iface bond0.43 inet manual
        mtu 1500
#LAN vlan (alt)

auto bond0.44
iface bond0.44 inet manual
        mtu 1500
#MNGT vlan (alt)

auto bond0.45
iface bond0.45 inet manual
        mtu 9000
#DMZ10G vlan (alt)

auto bond0.46
iface bond0.46 inet manual
        mtu 1500
#DMZ vlan (alt)

auto bond0.47
iface bond0.47 inet manual
        mtu 1500
#FFLAN vlan (alt)

auto bond0.48
iface bond0.48 inet manual
        mtu 9000
#DMZ10G vlan (alt)

auto bond0.49
iface bond0.49 inet manual
        mtu 9000
#LAN10G vlan (alt)

auto bond0.50
iface bond0.50 inet manual
        mtu 1500
#IOT vlan (alt)

auto bond0.51
iface bond0.51 inet manual
        mtu 9000
#FFLAN10G vlan (alt)

auto bond0.60
iface bond0.60 inet manual
        mtu 1500
#INFRA vlan

auto bond0.62
iface bond0.62 inet manual
        mtu 9000
#INFRA-NAS vlan

auto bond0.63
iface bond0.63 inet manual
        mtu 9000
#INFRA-BKP vlan

auto bond0.64
iface bond0.64 inet manual
        mtu 9000
#INFRA-NAS2 vlan

auto bond0.70
iface bond0.70 inet manual
        mtu 1500
#LAN vlan

auto bond0.71
iface bond0.71 inet manual
        mtu 1500
#LAN-MNGT vlan

auto bond0.72
iface bond0.72 inet manual
        mtu 9000
#LAN-NAS vlan

auto bond0.73
iface bond0.73 inet manual
        mtu 9000
#LAN-BKP vlan

auto bond0.74
iface bond0.74 inet manual
        mtu 9000
#LAN-NAS2 vlan

auto bond0.80
iface bond0.80 inet manual
        mtu 1500
#DMZPRIV vlan

auto bond0.81
iface bond0.81 inet manual
        mtu 1500
#DMZPRIV-MNGT vlan

auto bond0.82
iface bond0.82 inet manual
        mtu 9000
#DMZPRIV-NAS vlan

auto bond0.83
iface bond0.83 inet manual
        mtu 9000
#DMZPRIV-BKP vlan

auto bond0.90
iface bond0.90 inet manual
        mtu 1500
#DMZPUB vlan

auto bond0.91
iface bond0.91 inet manual
        mtu 1500
#DMZPUB-MNGT vlan

auto bond0.92
iface bond0.92 inet manual
        mtu 9000
#DMZPUB-NAS vlan

auto bond0.93
iface bond0.93 inet manual
        mtu 9000
#DMZPUB-BKP vlan

auto bond0.100
iface bond0.100 inet manual
        mtu 1500
#CELLAB vlan

auto bond0.110
iface bond0.110 inet manual
        mtu 1500
#FFLAN vlan

auto bond0.111
iface bond0.111 inet manual
        mtu 1500
#FFLAN-MNGT vlan

auto bond0.112
iface bond0.112 inet manual
        mtu 9000
#FFLAN-NAS vlan

auto bond0.113
iface bond0.113 inet manual
        mtu 9000
#FFLAN-BKP vlan

auto bond0.120
iface bond0.120 inet manual
        mtu 1500
#DMZ vlan

auto bond0.121
iface bond0.121 inet manual
        mtu 1500
#DMZ-MNGT vlan

auto bond0.122
iface bond0.122 inet manual
        mtu 9000
#DMZ-NAS vlan

auto bond0.123
iface bond0.123 inet manual
        mtu 9000
#DMZ-BKP vlan

auto bond0.130
iface bond0.130 inet manual
        mtu 1500
#IOT vlan

auto bond0.140
iface bond0.140 inet manual
        mtu 1500
#GUEST vlan

auto bond0.150
iface bond0.150 inet manual
        mtu 1500
#RETRO vlan

auto vmbr2
iface vmbr2 inet manual
        bridge-ports bond0.2
        bridge-stp off
        bridge-fd 0
        mtu 1500
#WAN bridge

auto vmbr3
iface vmbr3 inet manual
        bridge-ports bond0.3
        bridge-stp off
        bridge-fd 0
        mtu 1500
#FFWAN bridge

auto vmbr4
iface vmbr4 inet static
        address 192.168.4.42/24
        bridge-ports bond0.4
        bridge-stp off
        bridge-fd 0
        mtu 1500
#MNGT bridge (alt)

auto vmbr10
iface vmbr10 inet manual
        bridge-ports bond0.10
        bridge-stp off
        bridge-fd 0
        mtu 9000
#TNREP bridge

auto vmbr41
iface vmbr41 inet manual
        bridge-ports bond0.41
        bridge-stp off
        bridge-fd 0
        mtu 1500
#RETRO bridge (alt)

auto vmbr42
iface vmbr42 inet static
        address 192.168.42.42/24
        bridge-ports bond0.42
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZ bridge (alt)

auto vmbr43
iface vmbr43 inet static
        address 192.168.43.42/24
        bridge-ports bond0.43
        bridge-stp off
        bridge-fd 0
        mtu 1500
#LAN bridge (alt)

auto vmbr44
iface vmbr44 inet manual
        bridge-ports bond0.44
        bridge-stp off
        bridge-fd 0
        mtu 1500
#MNGT bridge (alt)

auto vmbr45
iface vmbr45 inet manual
        bridge-ports bond0.45
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZ10G bridge (alt)

auto vmbr46
iface vmbr46 inet manual
        bridge-ports bond0.46
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZ bridge (alt)

auto vmbr47
iface vmbr47 inet manual
        bridge-ports bond0.47
        bridge-stp off
        bridge-fd 0
        mtu 1500
#FFLAN bridge (alt)

auto vmbr48
iface vmbr48 inet manual
        bridge-ports bond0.48
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZ10G bridge (alt)

auto vmbr49
iface vmbr49 inet static
        address 192.168.49.42/24
        bridge-ports bond0.49
        bridge-stp off
        bridge-fd 0
        mtu 9000
#LAN10G bridge (alt)

auto vmbr50
iface vmbr50 inet manual
        bridge-ports bond0.50
        bridge-stp off
        bridge-fd 0
        mtu 1500
#IOT bridge (alt)

auto vmbr51
iface vmbr51 inet manual
        bridge-ports bond0.51
        bridge-stp off
        bridge-fd 0
        mtu 9000
#FFLAN10G bridge (alt)

auto vmbr60
iface vmbr60 inet static
        address 10.60.25.20/16
        gateway 10.60.0.1
        bridge-ports bond0.60
        bridge-stp off
        bridge-fd 0
        mtu 1500
#INFRA bridge

auto vmbr61
iface vmbr61 inet static
        address 10.61.25.20/16
        bridge-ports eno2
        bridge-stp off
        bridge-fd 0
        mtu 1500
#INFRA-MNGT bridge

auto vmbr62
iface vmbr62 inet static
        address 10.62.25.20/16
        bridge-ports bond0.62
        bridge-stp off
        bridge-fd 0
        mtu 9000
#INFRA-NAS bridge

auto vmbr63
iface vmbr63 inet static
        address 10.63.25.20/16
        bridge-ports bond0.63
        bridge-stp off
        bridge-fd 0
        mtu 9000
#INFRA-BKP bridge

auto vmbr64
iface vmbr64 inet manual
        bridge-ports bond0.64
        bridge-stp off
        bridge-fd 0
        mtu 9000
#INFRA-NAS2 bridge

auto vmbr70
iface vmbr70 inet manual
        bridge-ports bond0.70
        bridge-stp off
        bridge-fd 0
        mtu 1500
#LAN bridge

auto vmbr71
iface vmbr71 inet manual
        bridge-ports bond0.71
        bridge-stp off
        bridge-fd 0
        mtu 1500
#LAN-MNGT bridge

auto vmbr72
iface vmbr72 inet manual
        bridge-ports bond0.72
        bridge-stp off
        bridge-fd 0
        mtu 9000
#LAN-NAS bridge

auto vmbr73
iface vmbr73 inet manual
        bridge-ports bond0.73
        bridge-stp off
        bridge-fd 0
        mtu 9000
#LAN-BKP bridge

auto vmbr74
iface vmbr74 inet manual
        bridge-ports bond0.74
        bridge-stp off
        bridge-fd 0
        mtu 9000
#LAN-NAS2 bridge

auto vmbr80
iface vmbr80 inet manual
        bridge-ports bond0.80
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZPRIV bridge

auto vmbr81
iface vmbr81 inet manual
        bridge-ports bond0.81
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZPRIV-MNGT bridge

auto vmbr82
iface vmbr82 inet manual
        bridge-ports bond0.82
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZPRIV-NAS bridge

auto vmbr83
iface vmbr83 inet manual
        bridge-ports bond0.83
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZPRIV-BKP bridge

auto vmbr90
iface vmbr90 inet manual
        bridge-ports bond0.90
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZPUB bridge

auto vmbr91
iface vmbr91 inet manual
        bridge-ports bond0.91
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZPUB-MNGT bridge

auto vmbr92
iface vmbr92 inet manual
        bridge-ports bond0.92
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZPUB-NAS bridge

auto vmbr93
iface vmbr93 inet manual
        bridge-ports bond0.93
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZPUB-BKP bridge

auto vmbr100
iface vmbr100 inet manual
        bridge-ports bond0.100
        bridge-stp off
        bridge-fd 0
        mtu 1500
#CELLAB bridge

auto vmbr110
iface vmbr110 inet manual
        bridge-ports bond0.110
        bridge-stp off
        bridge-fd 0
        mtu 1500
#FFLAN bridge

auto vmbr111
iface vmbr111 inet manual
        bridge-ports bond0.111
        bridge-stp off
        bridge-fd 0
        mtu 1500
#FFLAN-MNGT bridge

auto vmbr112
iface vmbr112 inet manual
        bridge-ports bond0.112
        bridge-stp off
        bridge-fd 0
        mtu 9000
#FFLAN-NAS bridge

auto vmbr113
iface vmbr113 inet manual
        bridge-ports bond0.113
        bridge-stp off
        bridge-fd 0
        mtu 9000
#FFLAN-BKP bridge

auto vmbr120
iface vmbr120 inet manual
        bridge-ports bond0.120
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZ bridge

auto vmbr121
iface vmbr121 inet manual
        bridge-ports bond0.121
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZ-MNGT bridge

auto vmbr122
iface vmbr122 inet manual
        bridge-ports bond0.122
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZ-NAS bridge

auto vmbr123
iface vmbr123 inet manual
        bridge-ports bond0.123
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZ-BKP bridge

auto vmbr130
iface vmbr130 inet manual
        bridge-ports bond0.130
        bridge-stp off
        bridge-fd 0
        mtu 1500
#IOT bridge

auto vmbr140
iface vmbr140 inet manual
        bridge-ports bond0.140
        bridge-stp off
        bridge-fd 0
        mtu 1500
#GUEST bridge

auto vmbr150
iface vmbr150 inet manual
        bridge-ports bond0.150
        bridge-stp off
        bridge-fd 0
        mtu 1500
#RETRO bridge
 
Code:
root@Shuttle:~# cat /etc/network/interfaces
# network interface settings; autogenerated
# Please do NOT modify this file directly, unless you know what
# you're doing.
#
# If you want to manage parts of the network configuration manually,
# please utilize the 'source' or 'source-directory' directives to do
# so.
# PVE will preserve these directives, but will NOT read its network
# configuration from sourced files, so do not attempt to move any of
# the PVE managed interfaces into external files!

auto lo
iface lo inet loopback

iface enp3s0 inet manual
        mtu 9000
#Onboard Gbit NIC r8168 (untagged VLAN: 61; tagged VLANs: 2-4,10,41-51,60,62-64,70-74,80-83,90-93,100,110-113,120-123,130,140,150)

auto enp3s0.2
iface enp3s0.2 inet manual
        mtu 1500
#WAN vlan

auto enp3s0.3
iface enp3s0.3 inet manual
        mtu 1500
#FFWAN vlan

auto enp3s0.4
iface enp3s0.4 inet manual
        mtu 1500
#SYNC vlan (alt)

auto enp3s0.10
iface enp3s0.10 inet manual
        mtu 9000
#TNREP vlan

auto enp3s0.41
iface enp3s0.41 inet manual
        mtu 1500
#RETRO vlan (alt)

auto enp3s0.42
iface enp3s0.42 inet manual
        mtu 1500
#DMZ vlan (alt)

auto enp3s0.43
iface enp3s0.43 inet manual
        mtu 1500
#LAN vlan (alt)

auto enp3s0.44
iface enp3s0.44 inet manual
        mtu 1500
#MNGT vlan (alt)

auto enp3s0.45
iface enp3s0.45 inet manual
        mtu 9000
#DMZ10G vlan (alt)

auto enp3s0.46
iface enp3s0.46 inet manual
        mtu 1500
#DMZ vlan (alt)

auto enp3s0.47
iface enp3s0.47 inet manual
        mtu 1500
#FFLAN vlan (alt)

auto enp3s0.48
iface enp3s0.48 inet manual
        mtu 9000
#DMZ10G vlan (alt)

auto enp3s0.49
iface enp3s0.49 inet manual
        mtu 9000
#LAN10G vlan (alt)

auto enp3s0.50
iface enp3s0.50 inet manual
        mtu 1500
#IOT vlan (alt)

auto enp3s0.51
iface enp3s0.51 inet manual
        mtu 9000
#FFLAN10G vlan (alt)

auto enp3s0.60
iface enp3s0.60 inet manual
        mtu 1500
#INFRA vlan

auto enp3s0.62
iface enp3s0.62 inet manual
        mtu 9000
#INFRA-NAS vlan

auto enp3s0.63
iface enp3s0.63 inet manual
        mtu 9000
#INFRA-BKP vlan

auto enp3s0.64
iface enp3s0.64 inet manual
        mtu 9000
#INFRA-NAS2 vlan

auto enp3s0.70
iface enp3s0.70 inet manual
        mtu 1500
#LAN vlan

auto enp3s0.71
iface enp3s0.71 inet manual
        mtu 1500
#LAN-MNGT vlan

auto enp3s0.72
iface enp3s0.72 inet manual
        mtu 9000
#LAN-NAS vlan

auto enp3s0.73
iface enp3s0.73 inet manual
        mtu 9000
#LAN-BKP vlan

auto enp3s0.74
iface enp3s0.74 inet manual
        mtu 9000
#LAN-NAS2 vlan

auto enp3s0.80
iface enp3s0.80 inet manual
        mtu 1500
#DMZPRIV vlan

auto enp3s0.81
iface enp3s0.81 inet manual
        mtu 1500
#DMZPRIV-MNGT vlan

auto enp3s0.82
iface enp3s0.82 inet manual
        mtu 9000
#DMZPRIV-NAS vlan

auto enp3s0.83
iface enp3s0.83 inet manual
        mtu 9000
#DMZPRIV-BKP vlan

auto enp3s0.90
iface enp3s0.90 inet manual
        mtu 1500
#DMZPUB vlan

auto enp3s0.91
iface enp3s0.91 inet manual
        mtu 1500
#DMZPUB-MNGT vlan

auto enp3s0.92
iface enp3s0.92 inet manual
        mtu 9000
#DMZPUB-NAS vlan

auto enp3s0.93
iface enp3s0.93 inet manual
        mtu 9000
#DMZPUB-BKP vlan

auto enp3s0.100
iface enp3s0.100 inet manual
        mtu 1500
#CELLAB vlan

auto enp3s0.110
iface enp3s0.110 inet manual
        mtu 1500
#FFLAN vlan

auto enp3s0.111
iface enp3s0.111 inet manual
        mtu 1500
#FFLAN-MNGT vlan

auto enp3s0.112
iface enp3s0.112 inet manual
        mtu 9000
#FFLAN-NAS vlan

auto enp3s0.113
iface enp3s0.113 inet manual
        mtu 9000
#FFLAN-BKP vlan

auto enp3s0.120
iface enp3s0.120 inet manual
        mtu 1500
#DMZ vlan

auto enp3s0.121
iface enp3s0.121 inet manual
        mtu 1500
#DMZ-MNGT vlan

auto enp3s0.122
iface enp3s0.122 inet manual
        mtu 9000
#DMZ-NAS vlan

auto enp3s0.123
iface enp3s0.123 inet manual
        mtu 9000
#DMZ-BKP vlan

auto enp3s0.130
iface enp3s0.130 inet manual
        mtu 1500
#IOT vlan

auto enp3s0.140
iface enp3s0.140 inet manual
        mtu 1500
#GUEST vlan

auto enp3s0.150
iface enp3s0.150 inet manual
        mtu 1500
#RETRO vlan

auto vmbr2
iface vmbr2 inet manual
        bridge-ports enp3s0.2
        bridge-stp off
        bridge-fd 0
        mtu 1500
#WAN bridge

auto vmbr3
iface vmbr3 inet manual
        bridge-ports enp3s0.3
        bridge-stp off
        bridge-fd 0
        mtu 1500
#FFWAN bridge

auto vmbr4
iface vmbr4 inet manual
        bridge-ports enp3s0.4
        bridge-stp off
        bridge-fd 0
        mtu 1500
#MNGT bridge (alt)

auto vmbr10
iface vmbr10 inet manual
        bridge-ports enp3s0.10
        bridge-stp off
        bridge-fd 0
        mtu 9000
#TNREP bridge

auto vmbr41
iface vmbr41 inet manual
        bridge-ports enp3s0.41
        bridge-stp off
        bridge-fd 0
        mtu 1500
#RETRO bridge (alt)

auto vmbr42
iface vmbr42 inet static
        address 192.168.42.40/24
        bridge-ports enp3s0.42
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZ bridge (alt)

auto vmbr43
iface vmbr43 inet static
        address 192.168.43.40/24
        bridge-ports enp3s0.43
        bridge-stp off
        bridge-fd 0
        mtu 1500
#LAN bridge (alt)

auto vmbr44
iface vmbr44 inet manual
        bridge-ports enp3s0.44
        bridge-stp off
        bridge-fd 0
        mtu 1500
#MNGT bridge (alt)

auto vmbr45
iface vmbr45 inet manual
        bridge-ports enp3s0.45
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZ10G bridge (alt)

auto vmbr46
iface vmbr46 inet manual
        bridge-ports enp3s0.46
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZ bridge (alt)

auto vmbr47
iface vmbr47 inet manual
        bridge-ports enp3s0.47
        bridge-stp off
        bridge-fd 0
        mtu 1500
#FFLAN bridge (alt)

auto vmbr48
iface vmbr48 inet manual
        bridge-ports enp3s0.48
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZ10G bridge (alt)

auto vmbr49
iface vmbr49 inet static
        address 192.168.49.40/24
        bridge-ports enp3s0.49
        bridge-stp off
        bridge-fd 0
        mtu 9000
#LAN10G bridge (alt)

auto vmbr50
iface vmbr50 inet manual
        bridge-ports enp3s0.50
        bridge-stp off
        bridge-fd 0
        mtu 1500
#IOT bridge (alt)

auto vmbr51
iface vmbr51 inet manual
        bridge-ports enp3s0.51
        bridge-stp off
        bridge-fd 0
        mtu 9000
#FFLAN10G bridge (alt)

auto vmbr60
iface vmbr60 inet static
        address 10.60.25.60/16
        gateway 10.60.0.1
        bridge-ports enp3s0.60
        bridge-stp off
        bridge-fd 0
        mtu 1500
#INFRA bridge

auto vmbr61
iface vmbr61 inet static
        address 10.61.25.60/16
        bridge-ports enp3s0
        bridge-stp off
        bridge-fd 0
        mtu 1500
#INFRA-MNGT bridge

auto vmbr62
iface vmbr62 inet static
        address 10.62.25.60/16
        bridge-ports enp3s0.62
        bridge-stp off
        bridge-fd 0
        mtu 9000
#INFRA-NAS bridge

auto vmbr63
iface vmbr63 inet static
        address 10.63.25.60/16
        bridge-ports enp3s0.63
        bridge-stp off
        bridge-fd 0
        mtu 9000
#INFRA-BKP bridge

auto vmbr64
iface vmbr64 inet manual
        bridge-ports enp3s0.64
        bridge-stp off
        bridge-fd 0
        mtu 9000
#INFRA-NAS2 bridge

auto vmbr70
iface vmbr70 inet manual
        bridge-ports enp3s0.70
        bridge-stp off
        bridge-fd 0
        mtu 1500
#LAN bridge

auto vmbr71
iface vmbr71 inet manual
        bridge-ports enp3s0.71
        bridge-stp off
        bridge-fd 0
        mtu 1500
#LAN-MNGT bridge

auto vmbr72
iface vmbr72 inet manual
        bridge-ports enp3s0.72
        bridge-stp off
        bridge-fd 0
        mtu 9000
#LAN-NAS bridge

auto vmbr73
iface vmbr73 inet manual
        bridge-ports enp3s0.73
        bridge-stp off
        bridge-fd 0
        mtu 9000
#LAN-BKP bridge

auto vmbr74
iface vmbr74 inet manual
        bridge-ports enp3s0.74
        bridge-stp off
        bridge-fd 0
        mtu 9000
#LAN-NAS2 bridge

auto vmbr80
iface vmbr80 inet manual
        bridge-ports enp3s0.80
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZPRIV bridge

auto vmbr81
iface vmbr81 inet manual
        bridge-ports enp3s0.81
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZPRIV-MNGT bridge

auto vmbr82
iface vmbr82 inet manual
        bridge-ports enp3s0.82
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZPRIV-NAS bridge

auto vmbr83
iface vmbr83 inet manual
        bridge-ports enp3s0.83
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZPRIV-BKP bridge

auto vmbr90
iface vmbr90 inet manual
        bridge-ports enp3s0.90
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZPUB bridge

auto vmbr91
iface vmbr91 inet manual
        bridge-ports enp3s0.91
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZPUB-MNGT bridge

auto vmbr92
iface vmbr92 inet manual
        bridge-ports enp3s0.92
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZPUB-NAS bridge

auto vmbr93
iface vmbr93 inet manual
        bridge-ports enp3s0.93
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZPUB-BKP bridge

auto vmbr100
iface vmbr100 inet manual
        bridge-ports enp3s0.100
        bridge-stp off
        bridge-fd 0
        mtu 1500
#CELLAB bridge

auto vmbr110
iface vmbr110 inet manual
        bridge-ports enp3s0.110
        bridge-stp off
        bridge-fd 0
        mtu 1500
#FFLAN bridge

auto vmbr111
iface vmbr111 inet manual
        bridge-ports enp3s0.111
        bridge-stp off
        bridge-fd 0
        mtu 1500
#FFLAN-MNGT bridge

auto vmbr112
iface vmbr112 inet manual
        bridge-ports enp3s0.112
        bridge-stp off
        bridge-fd 0
        mtu 9000
#FFLAN-NAS bridge

auto vmbr113
iface vmbr113 inet manual
        bridge-ports enp3s0.113
        bridge-stp off
        bridge-fd 0
        mtu 9000
#FFLAN-BKP bridge

auto vmbr120
iface vmbr120 inet manual
        bridge-ports enp3s0.120
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZ bridge

auto vmbr121
iface vmbr121 inet manual
        bridge-ports enp3s0.121
        bridge-stp off
        bridge-fd 0
        mtu 1500
#DMZ-MNGT bridge

auto vmbr122
iface vmbr122 inet manual
        bridge-ports enp3s0.122
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZ-NAS bridge

auto vmbr123
iface vmbr123 inet manual
        bridge-ports enp3s0.123
        bridge-stp off
        bridge-fd 0
        mtu 9000
#DMZ-BKP bridge

auto vmbr130
iface vmbr130 inet manual
        bridge-ports enp3s0.130
        bridge-stp off
        bridge-fd 0
        mtu 1500
#IOT bridge

auto vmbr140
iface vmbr140 inet manual
        bridge-ports enp3s0.140
        bridge-stp off
        bridge-fd 0
        mtu 1500
#GUEST bridge

auto vmbr150
iface vmbr150 inet manual
        bridge-ports enp3s0.150
        bridge-stp off
        bridge-fd 0
        mtu 1500
#RETRO bridge
 
Ich sehe auch keinen Fehler, aber ich bin bei den vielen Bridges eh ausgestiegen. ;)
Wenn schon kein VLAN Aware, dann bin ich ein Freund von SDN. Das macht es übersichtlicher.

Was mir auffällt, Du hast bei den NICs eine queue von 3 eingestellt und außerdem die Firewall an.
Mal probiert die Firewall zu entfernen (damit muss der Host weniger Interfaces verwalten) und auch mal die queues=3 entfernen?
 
Ich sehe auch keinen Fehler, aber ich bin bei den vielen Bridges eh ausgestiegen. ;)
Wenn schon kein VLAN Aware, dann bin ich ein Freund von SDN. Das macht es übersichtlicher.
Ja, ich finde das mit den ganzen Bridges auch total unübersichtlich. Aber vlan-aware war halt auch wieder irgendwie nervig, wenn bei einem Node z.B. vlan100 auf vmbr0 liegt, bei einem anderen Node auf vmbr1 und wieder einem anderen auf vmbr2. Da müsste ich dann ja jedesmal nach dem Migrieren die Netzwerk-Konfig der Gäste anpassen, dass da die virtio NIC auf der richtigen vlan-aware bridge wäre, damit das auch mit den VLANs klappt. So muss ich die Netzwerk-Konfig der Nodes nur einmal für jedes VLAN erstellen und kann die dann vergessen und jede VM nutzt gleich immer die richtige Bridge die mit der richtigen physichen NIC für das jeweilige VLAN verbunden ist. Fand es einfacher das einmal für jeden Node zu definieren, anstatt das immer wieder für jede VM definieren zu müssen. Auch weniger zu merken, wenn VLAN100 auf jedem Node auf vmbr100 liegt. Aber ja, wirklich elegant ist das so nicht...

Was mir auffällt, Du hast bei den NICs eine queue von 3 eingestellt und außerdem die Firewall an.
Mal probiert die Firewall zu entfernen (damit muss der Host weniger Interfaces verwalten) und auch mal die queues=3 entfernen?
Queues=3 hatte ich auch schon vergeblich versucht. Hatte es jetzt auch noch ohne Firewall versucht, aber immer noch das gleiche Problem:
Code:
swtpm_setup: Not overwriting existing state file.
TASK ERROR: start failed: command '/usr/bin/kvm -id 10001 -name 'OPNsenseBackup,debug-threads=on' -no-shutdown -chardev 'socket,id=qmp,path=/var/run/qemu-server/10001.qmp,server=on,wait=off' -mon 'chardev=qmp,mode=control' -chardev 'socket,id=qmp-event,path=/var/run/qmeventd.sock,reconnect=5' -mon 'chardev=qmp-event,mode=control' -pidfile /var/run/qemu-server/10001.pid -daemonize -smbios 'type=1,uuid=287e1dff-4043-4b01-82d6-498bd5f04985' -drive 'if=pflash,unit=0,format=raw,readonly=on,file=/usr/share/pve-edk2-firmware//OVMF_CODE_4M.secboot.fd' -drive 'if=pflash,unit=1,id=drive-efidisk0,format=raw,file=/dev/zvol/VMpool/vlt/guest/VM_8K/vm-10001-disk-0,size=540672' -smp '3,sockets=1,cores=3,maxcpus=3' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vnc 'unix:/var/run/qemu-server/10001.vnc,password=on' -cpu host,+kvm_pv_eoi,+kvm_pv_unhalt -m 2048 -object 'iothread,id=iothread-virtioscsi0' -readconfig /usr/share/qemu-server/pve-q35-4.0.cfg -device 'vmgenid,guid=1ade3171-7d50-4c11-83b2-d25cfa9b34ad' -device 'usb-tablet,id=tablet,bus=ehci.0,port=1' -chardev 'socket,id=tpmchar,path=/var/run/qemu-server/10001.swtpm' -tpmdev 'emulator,id=tpmdev,chardev=tpmchar' -device 'tpm-tis,tpmdev=tpmdev' -device 'VGA,id=vga,bus=pcie.0,addr=0x1' -chardev 'socket,path=/var/run/qemu-server/10001.qga,server=on,wait=off,id=qga0' -device 'virtio-serial,id=qga0,bus=pci.0,addr=0x8' -device 'virtserialport,chardev=qga0,name=org.qemu.guest_agent.0' -object 'rng-random,filename=/dev/urandom,id=rng0' -device 'virtio-rng-pci,rng=rng0,max-bytes=1024,period=1000,bus=pci.1,addr=0x1d' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:571d75a0c32d' -drive 'if=none,id=drive-ide2,media=cdrom,aio=io_uring' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=101' -device 'virtio-scsi-pci,id=virtioscsi0,bus=pci.3,addr=0x1,iothread=iothread-virtioscsi0' -drive 'file=/dev/zvol/VMpool/vlt/guest/VM_8K/vm-10001-disk-1,if=none,id=drive-scsi0,discard=on,format=raw,cache=none,aio=io_uring,detect-zeroes=unmap' -device 'scsi-hd,bus=virtioscsi0.0,channel=0,scsi-id=0,lun=0,drive=drive-scsi0,id=scsi0,rotation_rate=1,bootindex=100' -netdev 'type=tap,id=net0,ifname=tap10001i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:99:9D:09,netdev=net0,bus=pci.0,addr=0x12,id=net0,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net1,ifname=tap10001i1,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:30:17:8D,netdev=net1,bus=pci.0,addr=0x13,id=net1,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net2,ifname=tap10001i2,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:89:9E:5C,netdev=net2,bus=pci.0,addr=0x14,id=net2,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net3,ifname=tap10001i3,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:65:33:28,netdev=net3,bus=pci.0,addr=0x15,id=net3,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net4,ifname=tap10001i4,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:DF:8A:B0,netdev=net4,bus=pci.0,addr=0x16,id=net4,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net5,ifname=tap10001i5,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:53:1C:19,netdev=net5,bus=pci.0,addr=0x17,id=net5,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net6,ifname=tap10001i6,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:6C:B2:D8,netdev=net6,bus=pci.1,addr=0x1,id=net6,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net7,ifname=tap10001i7,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:5A:D3:D5,netdev=net7,bus=pci.1,addr=0x2,id=net7,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net8,ifname=tap10001i8,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:AB:B0:CA,netdev=net8,bus=pci.1,addr=0x3,id=net8,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net9,ifname=tap10001i9,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:E2:44:AA,netdev=net9,bus=pci.1,addr=0x4,id=net9,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net10,ifname=tap10001i10,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:73:69:E6,netdev=net10,bus=pci.1,addr=0x5,id=net10,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net11,ifname=tap10001i11,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:08:D4:18,netdev=net11,bus=pci.1,addr=0x6,id=net11,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net12,ifname=tap10001i12,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:8B:C8:DD,netdev=net12,bus=pci.1,addr=0x7,id=net12,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net13,ifname=tap10001i13,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:C8:44:A7,netdev=net13,bus=pci.1,addr=0x8,id=net13,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net14,ifname=tap10001i14,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:26:DA:EB,netdev=net14,bus=pci.1,addr=0x9,id=net14,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net15,ifname=tap10001i15,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:F9:79:75,netdev=net15,bus=pci.1,addr=0xa,id=net15,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -netdev 'type=tap,id=net16,ifname=tap10001i16,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:BC:5B:FE,netdev=net16,bus=pci.1,addr=0xb,id=net16,rx_queue_size=1024,tx_queue_size=256,host_mtu=1500' -machine 'type=q35+pve0'' failed: got timeout
 
Last edited:
Ja, ich finde das mit den ganzen Bridges auch total unübersichtlich. Aber vlan-aware war halt auch wieder irgendwie nervig, wenn bei einem Node z.B. vlan100 auf vmbr0 liegt, bei einem anderen Node auf vmbr1 und wieder einem anderen auf vmbr2. Da müsste ich dann ja jedesmal nach dem Migrieren die Netzwerk-Konfig der Gäste anpassen, dass da die virtio NIC auf der richtigen vlan-aware bridge wäre, damit das auch mit den VLANs klappt.
Ich baue die Bridge für die VMs immer gleich, z.B. vmbr1 und wenn du einfach alle VLANs taggst, hast du mit VLAN Aware gar keine Arbeit. Es steht dann sogar im Backp, in welchem VLAN die VM war. ;)

Mit VLAN Aware könntest du die VLANs auch in der Sense verwalten, was ich auch übersichtlicher finde als die vielen Interfaces.

Hast du schon mal SDN statt der vielen Bridges versucht?
 
Ich baue die Bridge für die VMs immer gleich, z.B. vmbr1 und wenn du einfach alle VLANs taggst, hast du mit VLAN Aware gar keine Arbeit. Es steht dann sogar im Backp, in welchem VLAN die VM war. ;)
Problem ist hier halt die Mischung aus unterschiedlich starken Nodes. Im Idealfall wären die Nodes alle gleich bestückt und hätten die selben NICs und dann wäre das mit VLAN-aware Bridges nicht das Problem. Hier muss ich aber mit dem frickeln was ich habe und da hängen dann z.B. die VLANs für Netzwerk-Storage und Backups mal an einer eigenen 10Gbit NIC auf einer extra Bridge und bei anderen Nodes muss das über die gleiche Gbit NIC gehen wie auch der VM Traffic. Ist halt doof mit den VLAN-aware Bridges wenn da z.B. bei dem ersten Node die VLANs 2-10 an einer 1Gbit vmbr0 hängen und bei einem weiteren Node die VLANs 2-5 an einer 1Gbit vmbr0 und die VLANs 6-10 an einer 10Gbit vmbr1.
Will ich dann eine VM auf dem zweiten Node in VLAN 6 haben, dann speichert die VM zwar korrekt den "vmbr1,tag=6", das passt dann aber nicht mehr wenn ich die VM auf den ersten Node migriere, weil es dort dann "vmbr0,tag=6" sein müsste.
Könnte ich zwar jetzt noch so mit VLAN-aware Bridges nutzen, indem ich jedesmal nach einer Migration die VM-Konfig editiere, bevor ich die VM starte, aber selbst ohne Cluster macht es dann Probleme bei Dingen wie Live Restore zu einem anderen Node. Und ich wollte mir auch gerne noch die Option offen halten da später einen Cluster zu bilden.
Spätestens dann wird es ja schwierig mit HA und Live Migration, wenn die Nodes die VLANs auf verschiedenen VLAN-aware Bridges haben.
Mit einer Bridge je VLAN sollte das dann aber trotzdem alles klappen.

Mit VLAN Aware könntest du die VLANs auch in der Sense verwalten, was ich auch übersichtlicher finde als die vielen Interfaces.
Da hatte ich auch schon dran gedacht. Ich betreibe meine OPNsense VMs aber redundant über das HA von OPNsense und dieses erfordert, dass da alle OPNsense VMs die gleichen Interfaces haben. Also gleiche Anzahl und auch identische Interface-Namen. Das geht dann wieder nicht, wenn da z.B. der erste Node alle VLANs auf einer Bridge hat und der zweite Node die VLANs über verschiedene Bridges verteilt und daher mehr virtuelle NICs für die OPNsense braucht.

Hast du schon mal SDN statt der vielen Bridges versucht?
Da muss ich mich ehrlich gesagt noch einarbeiten. Habe zwar die Doku dazu gelesen, bin aber noch nicht dazu gekommen das mal praktisch zu testen.
 
Hast du denn die Möglichkeit die Realtek Netzwerkkarte mal testweise gegen ein anderes Modell zu tauschen oder hat der Shuttle keinen Slot für sowas frei? Ich bin mir nicht ganz sicher, aber irgendwas klingelt da bei mir.
 
Hi,
funktioniert es, wenn du manuell einen höheren Timeout setzt, z.B. qm start 10001 --timeout 300? Was ist die Ausgabe von pveversion -v?
 
Hast du denn die Möglichkeit die Realtek Netzwerkkarte mal testweise gegen ein anderes Modell zu tauschen oder hat der Shuttle keinen Slot für sowas frei? Ich bin mir nicht ganz sicher, aber irgendwas klingelt da bei mir.
Leider nein. Die ist onboard und das MiniITX-Case sieht auch keine Erweiterungskarten vor. Könnte höchsten eine USB-NIC anschließen und die beiden die ich habe sind wieder RTL8168...

Was ist die Ausgabe von pveversion -v?
Code:
root@Shuttle:~# pveversion -v
proxmox-ve: 8.2.0 (running kernel: 6.8.12-1-pve)
pve-manager: 8.2.4 (running version: 8.2.4/faa83925c9641325)
proxmox-kernel-helper: 8.1.0
pve-kernel-5.15: 7.4-3
proxmox-kernel-6.8: 6.8.12-1
proxmox-kernel-6.8.12-1-pve-signed: 6.8.12-1
proxmox-kernel-6.8.8-4-pve-signed: 6.8.8-4
proxmox-kernel-6.5.13-6-pve-signed: 6.5.13-6
proxmox-kernel-6.5: 6.5.13-6
pve-kernel-5.15.107-2-pve: 5.15.107-2
pve-kernel-5.15.30-2-pve: 5.15.30-3
ceph-fuse: 16.2.11+ds-2
corosync: 3.1.7-pve3
criu: 3.17.1-2
glusterfs-client: 10.3-5
ifupdown2: 3.2.0-1+pmx9
ksm-control-daemon: 1.5-1
libjs-extjs: 7.0.0-4
libknet1: 1.28-pve1
libproxmox-acme-perl: 1.5.1
libproxmox-backup-qemu0: 1.4.1
libproxmox-rs-perl: 0.3.3
libpve-access-control: 8.1.4
libpve-apiclient-perl: 3.3.2
libpve-cluster-api-perl: 8.0.7
libpve-cluster-perl: 8.0.7
libpve-common-perl: 8.2.2
libpve-guest-common-perl: 5.1.4
libpve-http-server-perl: 5.1.0
libpve-network-perl: 0.9.8
libpve-rs-perl: 0.8.9
libpve-storage-perl: 8.2.3
libspice-server1: 0.15.1-1
lvm2: 2.03.16-2
lxc-pve: 6.0.0-1
lxcfs: 6.0.0-pve2
novnc-pve: 1.4.0-3
proxmox-backup-client: 3.2.7-1
proxmox-backup-file-restore: 3.2.7-1
proxmox-firewall: 0.5.0
proxmox-kernel-helper: 8.1.0
proxmox-mail-forward: 0.2.3
proxmox-mini-journalreader: 1.4.0
proxmox-offline-mirror-helper: 0.6.6
proxmox-widget-toolkit: 4.2.3
pve-cluster: 8.0.7
pve-container: 5.1.12
pve-docs: 8.2.3
pve-edk2-firmware: 4.2023.08-4
pve-esxi-import-tools: 0.7.1
pve-firewall: 5.0.7
pve-firmware: 3.13-1
pve-ha-manager: 4.0.5
pve-i18n: 3.2.2
pve-qemu-kvm: 9.0.2-2
pve-xtermjs: 5.3.0-3
qemu-server: 8.2.4
smartmontools: 7.3-pve1
spiceterm: 3.3.0
swtpm: 0.8.0+pve1
vncterm: 1.8.0
zfsutils-linux: 2.2.4-pve1

funktioniert es, wenn du manuell einen höheren Timeout setzt, z.B. qm start 10001 --timeout 300?
Ja, da klappt es und das GastOS scheint auch richtig zu laufen:
Code:
swtpm_setup: Not overwriting existing state file.
TASK OK
Braucht aber auch 56 Sek, was mich schon wundert. Auf dem anderen Node startet die VM in 19 Sek (aber der hat auch eine viel schnellere CPU).
Kann man den Timeout irgendwie in einer Konfig-Datei setzen, damit ich "Start at boot" aktivieren könnte? Oder eventuell per Hook Script falls da nichts vorgesehen ist?
 
Last edited:
  • Like
Reactions: Ralli
Kann man den Timeout irgendwie in einer Konfig-Datei setzen, damit ich "Start at boot" aktivieren könnte? Oder eventuell per Hook Script falls da nichts vorgesehen ist?
Wenn da Nix gibt, wäre ein Bugzilla Eintrag hilfreich. Bei anderen Hypervisoren gibt’s manchmal ein Textfeld wo man startoptionen von Hand eintragen kann, das wäre auch super für spätere qemu Features.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!