[SOLVED] VMs und Container haben kein Internet

kevo.

New Member
May 30, 2021
24
1
3
36
Hallo Zusammen,

der Neuling mal wieder... seit Taaagen versuche ich ohne Erfolg VMs oder LXCs ins Internet zu bekommen. Eine lokale IP bekommen die VMs/LXCs jeweils. Pingen geht auch. Aber kein Internet...

Ich kopier mal was hier rein.. ip addr & nano /etc/network/interfaces.. Ein Kumpel sagte, dass soweit alles in Ordnung aussieht.


Code:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: enp87s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq master vmbr0 state UP group default qlen 1000
    link/ether 54:b2:03:9e:e2:c5 brd ff:ff:ff:ff:ff:ff
3: enp88s0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
    link/ether 54:b2:03:9e:d2:7f brd ff:ff:ff:ff:ff:ff
4: wlo1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
    link/ether 90:cc:df:1e:32:fa brd ff:ff:ff:ff:ff:ff
5: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 54:b2:03:9e:e2:c5 brd ff:ff:ff:ff:ff:ff
    inet 192.168.10.2/24 scope global vmbr0
       valid_lft forever preferred_lft forever
    inet6 fe80::56b2:3ff:fe9e:e2c5/64 scope link
       valid_lft forever preferred_lft forever
30: veth101i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr101i0 state UP group default qlen 1000
    link/ether fe:fa:b1:2c:2a:26 brd ff:ff:ff:ff:ff:ff link-netnsid 0
31: fwbr101i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 62:df:0e:58:5e:7d brd ff:ff:ff:ff:ff:ff
32: fwpr101p0@fwln101i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether aa:db:b6:b8:de:99 brd ff:ff:ff:ff:ff:ff
33: fwln101i0@fwpr101p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr101i0 state UP group default qlen 1000
    link/ether 62:df:0e:58:5e:7d brd ff:ff:ff:ff:ff:ff

und

Code:
auto lo
iface lo inet loopback

auto enp87s0
iface enp87s0 inet manual
#Haupt-LAN

iface enp88s0 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.10.2/24
        gateway 192.168.10.1
        bridge-ports enp87s0
        bridge-stp off
        bridge-fd 0


Jemand eine Idee? Ist ein Intel Nuc mit 2 Netzwerkkarten..

Besten Dank für Eure Unterstützung.

kevo
 
Sieht soweit ok aus.
Ist dein Internet-Router auch wirklich 192.168.10.1?
Pingen geht auch. Aber kein Internet...
Was heißt das genau? Kannst du z.B. 8.8.8.8 anpingen? Falls 8.8.8.8 anpingen geht aber keine Domains gehen, dann klappt deine DNS-Auslösung nicht. Ist auch 8.8.8.8 nicht anpingbar solltest du gucken ob dein Gateway passt.
 
Sieht soweit ok aus.
Ist dein Internet-Router auch wirklich 192.168.10.1?

Was heißt das genau? Kannst du z.B. 8.8.8.8 anpingen? Falls 8.8.8.8 anpingen geht aber keine Domains gehen, dann klappt deine DNS-Auslösung nicht. Ist auch 8.8.8.8 nicht anpingbar solltest du gucken ob dein Gateway passt.
Hi Dunuin,

Ja, die FritzBox hat definitiv die 192.168.10.1. Dann sollte der Gateway doch auch richtig sein.

Interne IP Adressen kann ich anpingen. 8.8.8.8 habe folgendes Ergebnis:


Pingtest.JPG

10.4 ist die IP der VM.

Mit dem Proxmox kann ich ohne Probleme pingen:

Code:
ping 8.8.8.8
PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_seq=1 ttl=118 time=18.3 ms
64 bytes from 8.8.8.8: icmp_seq=2 ttl=118 time=15.7 ms
64 bytes from 8.8.8.8: icmp_seq=3 ttl=118 time=14.0 ms
64 bytes from 8.8.8.8: icmp_seq=4 ttl=118 time=16.5 ms
64 bytes from 8.8.8.8: icmp_seq=5 ttl=118 time=20.4 ms
64 bytes from 8.8.8.8: icmp_seq=6 ttl=118 time=22.9 ms
^C
--- 8.8.8.8 ping statistics ---
6 packets transmitted, 6 received, 0% packet loss, time 13ms
rtt min/avg/max/mdev = 14.043/17.978/22.894/2.976 ms
root@kevo:~# ping www.web.de
PING www.g-ha-web.de (82.165.229.138) 56(84) bytes of data.
64 bytes from bs.web.de (82.165.229.138): icmp_seq=1 ttl=248 time=19.9 ms
64 bytes from bs.web.de (82.165.229.138): icmp_seq=2 ttl=248 time=17.7 ms
64 bytes from bs.web.de (82.165.229.138): icmp_seq=3 ttl=248 time=15.0 ms
64 bytes from bs.web.de (82.165.229.138): icmp_seq=4 ttl=248 time=16.5 ms
64 bytes from bs.web.de (82.165.229.138): icmp_seq=5 ttl=248 time=17.2 ms
64 bytes from bs.web.de (82.165.229.138): icmp_seq=6 ttl=248 time=25.2 ms
64 bytes from bs.web.de (82.165.229.138): icmp_seq=7 ttl=248 time=16.0 ms
^C
--- www.g-ha-web.de ping statistics ---
7 packets transmitted, 7 received, 0% packet loss, time 15ms
rtt min/avg/max/mdev = 15.048/18.231/25.219/3.192 ms

Danke für die Unterstützung!

Gruß
kevo
 
Last edited:
Ich musste Proxmox auf den Intel Nuc mit einem USB LAN Dongle installsieren weil ich einen iwlwifi error bekommen habe. Jetzt nutze ich eine der beiden internen Netzwerkkarten. Den Dongle habe ich aus den Netzwerkeinstellungen im Knoten wieder entfernt und die Werte in die interne Netzwerkkarte eingetragen. Der Proxmox selber kommt ohne Probleme ins Internet. apt-get upate läuft ohne Probleme.
Kann mir nicht vorstellen das die VMs und Container deswegen nicht ins Internet kommen, aber so langsam gehen mir die Ideen aus.

Spiele auch schon mit dem Gedanken den Nuc nochmal neu zu installieren...
 
Die Proxmox Konfig der VM bitte.
Ah, sorry. Bin ein Proxmox Neuling und mit den Begrifflichkeiten noch nicht so vertraut ;) Hoffentlich meinst Du das hier...

Proxmox_VM_config.JPG

Der QEMU Guest Agent war bis vorhin deaktiviert. Hab den mal aktiviert weil ich der Meinung war den auch bei der Erstellung angehakt zu haben.
Der VirtIO Guest Agent ist auf der VM installiert.
 
Die *.conf Datei bitte. In dieser sollte das verwendete Netzwerk-Device ersichtlich sein.....
 
Aaah, sorry :)

Code:
boot: order=ide0;ide2;net0
cores: 4
cpu: host
ide0: local-lvm:vm-201-disk-0,cache=writeback,discard=on,size=100G,ssd=1
ide1: local:iso/virtio-win-0.1.190.iso,media=cdrom,size=489986K
ide2: local:iso/Win10_21H1_German_x64.iso,media=cdrom
machine: pc-i440fx-5.2
memory: 8196
name: kevo-rdp
net0: virtio=36:B7:0A:50:87:58,bridge=vmbr0,firewall=1
numa: 0
onboot: 1
ostype: win10
scsihw: virtio-scsi-pci
smbios1: uuid=65da7b6f-cccf-4971-941d-2c2cf2bcf497
sockets: 1
vmgenid: c73235ed-1bca-45a2-b7f0-197eae49f0b2
 
Deine Firewall ist auf VM-Ebene aktiviert (firewall=1). Hast du da vielleicht eine Regel drin welche deine VMs blockt? Oder hast du da alles auf Standardwerten belassen was die Firewall von Proxmox angeht? Solange du die Datacenter-Firewall nicht aktivierst sollte Proxmox eigentlich nirgends Firewall-Regeln nutzen.

Sonst sehe ich da jetzt auch gerade nicht warum die VMs/LXCs an der Bridge nicht ins Internet kommen. Du könntest mal googlen ob da Probleme mit dem NIC Chipsatz bekannt sind. Bei Wifi ist es z.B. nicht unüblich, dass da der Wifi-Chip eine keine Bridges nutzen kann. Dann kommt zwar der Host online aber keine VMs die an der Bridge hängen. Vielleicht hat deine NIC da ja ein ähnliches Problem.

Sonst fällt mir da auch nur noch ein mal mit tcpdump an vmbr0 und enp87s0 mitzuschneiden und zu gucken, was da genau für Pakete drübergehen. Wenn man den dump dann in Wireshark läd kann man sich auch jedes einzelne Paket im Detail angucken.
 
Last edited:
Die Konfig scheint in Ordnung.
Für die lokale Festplatte würde ich virtio-scsi nehmen (=Anmerkung).

Überprüfen könntest du noch ev. Firewalleinstellungen der Fritzbox, die eine Verbindung sperren könnte.

In Proxmox selber ist die Firewall hoffentlich nicht aktiviert bzw. Regeln aktiv. Das müsstest du aber selber eingestellt haben.
 
Last edited:
Deine Firewall ist aktiviert (firewall=1). Hast du da vielleicht eine Regel drin welche deine VMs blockt? Oder hast du da alles auf Standardwerten belassen was die Firewall von Proxmox angeht?

Hab an der Proxmox Firewall nicht gefummelt. Sind also alles Standardwerte. Wenn ich in der VM links auf den Reiter Firmware gehe steht unter Optionen "nein".

Die Konfig scheint in Ordnung.
Für die lokale Festplatte würde ich virtio-scsi nehmen (=Anmerkung).

Überprüfen könntest du noch ev. Firewalleinstellungen der Fritzbox, die eine Verbindung sperren könnte.

In Proxmox selber ist die Firewall hoffentlich nicht aktiviert. Das müsstest du aber selber eingestellt haben.
Die FritzBox sieht für mich auch in Odnung aus. Hättest Du ne Idee was auf jeden Fall de- oder aktiviert werden muss?
 
Hab an der Proxmox Firewall nicht gefummelt. Sind also alles Standardwerte. Wenn ich in der VM links auf den Reiter Firmware gehe steht unter Optionen "nein"
Ok, dann heißt "firewall=1" in dem Falle wohl "nein". Dann sollte die Firewall von PVE nicht das Problem sein.
Die FritzBox sieht für mich auch in Odnung aus. Hättest Du ne Idee was auf jeden Fall de- oder aktiviert werden muss?
Würde mich also stark wundern wenn die Fritzbox ausgehenden Traffic für den Host erlauben sollte aber für VMs nicht. Ausgehenden Traffic kann man glaube ich nur über "Internet -> Filter -> Kindersicherung" und "Internet -> Filter -> Zugangsprofile" blocken. Du kannst da mal gucken ob du etwas komisches gesetzt hast, aber mit Standardeinstellungen sollte da eigentlich jeder Rechner frei ins Internet dürfen.
 
Ok, dann heißt "firewall=1" in dem Falle wohl "nein". Dann sollte die Firewall von PVE nicht das Problem sein.

Würde mich also stark wundern wenn die Fritzbox ausgehenden Traffic für den Host erlauben sollte aber für VMs nicht. Ausgehenden Traffic kann man glaube ich nur über "Internet -> Filter -> Kindersicherung" und "Internet -> Filter -> Zugangsprofile" blocken. Du kannst da mal gucken ob du etwas komisches gesetzt hast, aber mit Standardeinstellungen sollte da eigentlich jeder Rechner frei ins Internet dürfen.
In der FritzBox ist alles top.... zum verzweifeln...

Ob der USB LAN Adapter mit dem ich den Nuc aufgesetzt habe doch was damit zutun hat? Oder hab ich bei der Promox installation irgendwas flasch machen können?
 
Die Konfigs sehen soweit ok aus. Ich würde eher auf ein Problem mit der NIC an sich tippen. Fehlende Features im Treiber oder ähnliches.
Wenn dein NUC recht neue Hardware nutzt könntest du mal von dem 5.4 zum 5.11 Kernel wechseln und gucken ob es dann geht:
  • apt update
  • apt install pve-kernel-5.11
  • reboot
Ist die NIC, die du gebridgt hast die onboard NIC oder die USB NIC? Was genau für Modelle sind das?
 
Last edited:
Die Konfigs sehen soweit ok aus. Ich würde eher auf ein Problem mit der NIC an sich tippen. Fehlende Features im Treiber oder ähnliches.
Wenn dein NUC recht neue Hardware nutzt könntest du mal von dem 5.4 zum 5.11 Kernel wechseln und gucken ob es dann geht:
  • apt update
  • apt install pve-kernel-5.11
  • reboot
Ist die NIC, die du gebridgt hast die onboard NIC oder die USB NIC? Was genau für Modelle sind das?
Mit dem pve-kernel-5.11 startet Proxmox nicht... hab ich auch schon probiert. Das ist die onBoard NIC. Die USB NIC hab ich schon entfernt.
 
Und was genau ist das für eine NIC onboard verbaut?
Der Intel® Ethernet Controller i225-LM. Ich hab die Kiste jetzt mal ohne den USB Dongle neu installiert. Also direkt mit der OnBoard NIC.
Bin gespannt... Lade gerade die Win10 ISO hoch..
 
Das klingt doch wie bei dir:
https://forum.proxmox.com/threads/is-anyone-using-i225-v-nic-in-their-pve-setup.76708/post-346415
I'm using an Asus z490 prime a which has a single I225-V nic. Works fine in Windows and Manjaro/Fedora linux. On proxmox it is down on boot. I log in as root after install and the network is done. No error in dmesg or anywhere else. Doing a systemctl restart networking.service brings it up.

Possibly related is if I create a vm using the linux bridge that is created by default my vm has no internet connectivity. The vm can ping the host and the host can ping the vm but that's it.

But the first thing I'm trying to fix is the Nic being dead on startup.

I solved them by using a 5.8 ubuntu kernel instead of the 5.4 which seems to be installed by default on the latest PVE version.

After the kernel upgrade, traffic on the bridge (both tagged and untagged) started working correctly
as well as the ifup at startup.

It seems to be a problem with the igc drivers shipped with that kernel, so another possible route is to backport the newer igc driver from 5.8 to 5.4 but I didn't investigate that.

The only thing to remember is that using a custom compiled 5.8 kernel is not officially supported so don't use it for production workloads.

If you need, I can post the instructions on how to compile 5.8.

Also doch ein Treiberproblem und du müsstets den Kernel upgraden. Also doch irgendwie gucken, dass du da den NUC mit 5.11 zum laufen bekommst.
 
Last edited:
  • Like
Reactions: kevo.

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!