[SOLVED] PVE hat plötzlich kein Zugriff mehr auf PBS

basti2s

Member
Jul 27, 2021
35
0
6
30
Hallo,

ich bin gerade etwas ratlos. Folgendes Setup habe ich hier im Betrieb.
An meinem Standort habe ich einen PVE, der abends übers Internet Backups an einen PBS macht, der an einem anderen Standort steht. Der PBS hat also eine eigene Domain, die aus dem Internet ganz normal erreichbar ist. Bis vor kurzem hat das ganze noch einwandfrei funktioniert, doch jetzt kann der PVE sich nicht mehr mit dem PBS verbinden. Das Interface zum PBS ist im Browser aber ganz normal erreichbar. Im PVE kommt immer die Meldung: ".....error fetching datastores -500 Can't connect to.... (Network is unreachable)(500)". Woran kann das liegen? Ich habe auch schon versucht den PBS im PVE neu anzubinden, hat leider auch nichts gebracht.

Eigentlich habe ich nichts an meinem Setup verändert. Ich habe lediglich vor kurzem eine zweite Netzwerkkarte eingebaut, die aber nur für eine bestimmte VM gedacht ist.

Irgendwie bin ich gerade unzufrieden hier ohne Logs oder sonstiges einen Beitrag zu schreiben, habe aber keine Idee welche Logs hier hilfreich sein könnten, bzw. wie ich an diese komme .....
 
Danke für die schnelle Antwort. Leider nein. Zertifikat ist von september 21 und die Fingerprints sind identisch.
 
hi

500 Can't connect to.... (Network is unreachable)(500)"

deutet auf ein netzwerk problem hin, es scheint als könnte er das netzwerk des pbs nicht finden.
wie ist denn die netzwerk konfiguration von den beiden server?
output von folgenden kommandos (von beiden) wäre hilfreich:

Code:
ip addr
ip route
ip link
 
Die ausgabe des PVE:
ip addr:
Code:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: enp3s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master vmbr0 state UP group default qlen 1000
    link/ether 90:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
3: enp2s0f0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
    link/ether 00:0a:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
4: enp2s0f1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
    link/ether 00:0a:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
5: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 90:1b:xx:xx:xx:34 brd ff:ff:ff:ff:ff:ff
    inet 192.168.xxx.xx/24 scope global vmbr0
       valid_lft forever preferred_lft forever
    inet6 fe80::xxxx:xxx:fe1d:ce34/64 scope link
       valid_lft forever preferred_lft forever
6: veth100i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether fe:44:a5:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 0
7: veth104i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i0 state UP group default qlen 1000
    link/ether fe:17:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
8: fwbr104i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 86:af:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
9: fwpr104p0@fwln104i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 2e:ef:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
10: fwln104i0@fwpr104p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i0 state UP group default qlen 1000
    link/ether 7a:bb:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
11: veth104i1@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i1 state UP group default qlen 1000
    link/ether fe:a7:44:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
12: fwbr104i1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 6a:61:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
13: fwpr104p1@fwln104i1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 4a:6d:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
14: fwln104i1@fwpr104p1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i1 state UP group default qlen 1000
    link/ether b6:86:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
15: veth104i2@if4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i2 state UP group default qlen 1000
    link/ether fe:50:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
16: fwbr104i2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether e6:ee:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
17: fwpr104p2@fwln104i2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 6e:d3:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
18: fwln104i2@fwpr104p2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i2 state UP group default qlen 1000
    link/ether aa:3b:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
19: veth104i3@if5: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i3 state UP group default qlen 1000
    link/ether fe:e2:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
20: fwbr104i3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 9a:66:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
21: fwpr104p3@fwln104i3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether da:18:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
22: fwln104i3@fwpr104p3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i3 state UP group default qlen 1000
    link/ether e2:45:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff

ip route:
Code:
default via 192.168.178.1 dev vmbr0 proto kernel onlink
192.168.178.0/24 dev vmbr0 proto kernel scope link src 192.168.178.54

ip link:
Code:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: enp3s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master vmbr0 state UP mode DEFAULT group default qlen 1000
    link/ether 90:1b:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
3: enp2s0f0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
    link/ether 00:0a:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
4: enp2s0f1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
    link/ether 00:0a:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
5: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    link/ether 90:1b:xx:xx:xx:34 brd ff:ff:ff:ff:ff:ff
6: veth100i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP mode DEFAULT group default qlen 1000
    link/ether fe:44:a5:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 0
7: veth104i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i0 state UP mode DEFAULT group default qlen 1000
    link/ether fe:17:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
8: fwbr104i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    link/ether 86:af:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
9: fwpr104p0@fwln104i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP mode DEFAULT group default qlen 1000
    link/ether 2e:ef:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
10: fwln104i0@fwpr104p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i0 state UP mode DEFAULT group default qlen 1000
    link/ether 7a:bb:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
11: veth104i1@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i1 state UP mode DEFAULT group default qlen 1000
    link/ether fe:a7:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
12: fwbr104i1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    link/ether 6a:61:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
13: fwpr104p1@fwln104i1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP mode DEFAULT group default qlen 1000
    link/ether 4a:6d:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
14: fwln104i1@fwpr104p1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i1 state UP mode DEFAULT group default qlen 1000
    link/ether b6:86:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
15: veth104i2@if4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i2 state UP mode DEFAULT group default qlen 1000
    link/ether fe:50:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
16: fwbr104i2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    link/ether e6:ee:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
17: fwpr104p2@fwln104i2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP mode DEFAULT group default qlen 1000
    link/ether 6e:d3:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
18: fwln104i2@fwpr104p2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i2 state UP mode DEFAULT group default qlen 1000
    link/ether aa:3b:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
19: veth104i3@if5: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i3 state UP mode DEFAULT group default qlen 1000
    link/ether fe:e2:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
20: fwbr104i3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    link/ether 9a:66:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
21: fwpr104p3@fwln104i3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP mode DEFAULT group default qlen 1000
    link/ether da:18:57:xx:xx:xx brd ff:ff:ff:ff:ff:ff
22: fwln104i3@fwpr104p3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i3 state UP mode DEFAULT group default qlen 1000
    link/ether e2:45:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff


Ausgabe des PBS
ip addr:
Code:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: enp3s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 74:d0:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
    inet 192.168.178.62/24 scope global enp3s0
       valid_lft forever preferred_lft forever
    inet6 2a02:8070:xxxx:xxxx:xxxx:xxxx:xxxx:xxxx/64 scope global dynamic mngtmpaddr
       valid_lft 7032sec preferred_lft 3432sec
    inet6 fe80::76d0:xxxx:xxxx:xxxx/64 scope link
       valid_lft forever preferred_lft forever

ip route:
Code:
default via 192.168.178.1 dev enp3s0 proto kernel onlink
192.168.178.0/24 dev enp3s0 proto kernel scope link src 192.168.178.62

ip link:
Code:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: enp3s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000
    link/ether 74:d0:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff


deutet auf ein netzwerk problem hin, es scheint als könnte er das netzwerk des pbs nicht finden.

Aber ich komme ja auf die Benutzeroberfläche des PBS
 
Last edited:
ok netzwerk konfig schaut gut aus soweit, kannst du auch die storage config vom pve posten und vielleicht mit ping/ssh/curl testen ob du vom pve zum pbs damit kommst ?
 
Was genau verstehst du unter der storage config?

Mit ping und curl wird der PBS vom PVE aus nicht erreicht. Ich bekomme aber selbst von meinem Desktop-PC aus keine Antwort wenn ich den PBS anpinge. Was genau mach ich gerade falsch? Kann doch nicht sein, dass ich auf die Weboberfläche des PBS bekomme, aber keine Antwort auf einen ping bekomme :rolleyes:
 
Mit ping und curl wird der PBS vom PVE aus nicht erreicht. Ich bekomme aber selbst von meinem Desktop-PC aus keine Antwort wenn ich den PBS anpinge. Was genau mach ich gerade falsch? Kann doch nicht sein, dass ich auf die Weboberfläche des PBS bekomme, aber keine Antwort auf einen ping bekomme :rolleyes:
hört sich danach an ob eine firewall oÄ dazwischen sitzt und nicht richtig konfiguriert ist?

Was genau verstehst du unter der storage config?
storage config ist das file in /etc/pve/storage.cfg
die beinhaltet die konfiguration der storages im pve
 
Zunächst einmal die storage.cfg:
Code:
  GNU nano 5.4                                                   /etc/pve/storage.cfg                                                            
dir: local
        path /var/lib/vz
        content vztmpl,backup,iso

lvmthin: local-lvm
        thinpool data
        vgname pve
        content images,rootdir

zfspool: Cloud
        pool Cloud
        content rootdir,images
        mountpoint /Cloud
        nodes server

pbs: PBStoken
        datastore DataHDD
        server domain.duckdns.org
        content backup
        encryption-key xx:xx:xx:.....
        fingerprint xx:xx:xx:.....
        prune-backups keep-all=1
        username bastian@pbs!token


hört sich danach an ob eine firewall oÄ dazwischen sitzt und nicht richtig konfiguriert ist?
Ja, da hängt ne firewall vor dem PBS. Habe nur den Port 443 und 8007 offen. Das reicht doch? Vielleicht sollte ich noch zusätzlich erwähnen, dass es sich bei der Domain vom PBS auch um DS-Lite handelt, also rein IPv6.
 
Ja, da hängt ne firewall vor dem PBS. Habe nur den Port 443 und 8007 offen. Das reicht doch? Vielleicht sollte ich noch zusätzlich erwähnen, dass es sich bei der Domain vom PBS auch um DS-Lite handelt, also rein IPv6.
auf was löst 'domain.duckdns.org' denn auf? wenn das nur über ipv6 erreichbar ist, kann das pve den gar nicht erreichen da keine ipv6 konfiguriert ist?
 
Also die Domain löst auf den PBS auf. Der PVE selber hat eine IPv6 Adresse bezogen. Und wie gesagt, über die Domain komme ich vom Internet aus auf das Webinterface des PBS. Vermute also eher dass der fehler beim pve liegt.
 
Also die Domain löst auf den PBS auf.
ich meinte auf welche ip? A record? AAAA record?

Der PVE selber hat eine IPv6 Adresse bezogen.
im output von oben (ip addr) seh ich keine ipv6... (nur die link lokale, die aber nicht funktionieren wird wenn die domain auf die public ip auflöst)

was ist denn der output von
Code:
ip -6 route
von beiden maschinen?
 
ich meinte auf welche ip? A record? AAAA record?
Auf den AAAA record. Also der wird zumindest bei duckdns auch vom PBS aktualisiert, falls sich dieser ändert.

ip-6 route vom PVE:
Code:
::1 dev lo proto kernel metric 256 pref medium
fe80::/64 dev vmbr0 proto kernel metric 256 pref medium

ip-6 route vom PBS:
Code:
::1 dev lo proto kernel metric 256 pref medium
xxxx:xxxx:xxxx:6400::/64 dev enp3s0 proto kernel metric 256 expires 6959sec pref medium
fe80::/64 dev enp3s0 proto kernel metric 256 pref medium
default via fe80::xxxx:xxxx:xxxx:690a dev enp3s0 proto ra metric 1024 expires 1559sec hoplimit 255 pref medium
 
Auf den AAAA record. Also der wird zumindest bei duckdns auch vom PBS aktualisiert, falls sich dieser ändert.
auf den öffentlichen? also '2a02:8070:xxxx:xxxx:xxxx:xxxx:xxxx:xxxx' ?

wenn ja kann das nicht funktionieren weil der pve server keine default ipv6 route hat. auch habe ich im original output vom pve keine ipv6 (außer der link-lokalen fe80..) gesehen..
 
ja genau. Würde der hinterlegte AAAA record nicht stimmen könnte ich doch nicht über das Internet auf die PBS Benutzeroberfläche zugreifen.

Das ist doch komisch, demnach hätte es doch nie funktionieren dürfen? Wie genau kann ich das Problem jetzt beheben?
 
so wie es gerade aussieht (pve hat keine verbindung zu public ipv6 Adressen, pbs domain löst nur auf ipv6 auf) kann es meiner meinung nach technisch nicht funktionieren
was vielleicht passiert ist:

hatte das pve6 vielleicht mal eine ipv6 (router kontrollieren/isp fragen ob sich was geändert hat)?
oder löste die domain vielleicht mal auf eine ipv4 auf (zb. wegen port forwarding?)

hat sich sonst irgendwas geändert?
 
Sorry für die verzögerte Antwort. Also das einzige was sich am PVE geändert hat ist, dass ich eine zweite PCI Lan Karte eingebaut habe. Seit dem gehen tatsächlich die Backups nicht mehr. Die PCI Lan Karte wird aber momentan nicht mehr genutzt. Ich nutze nur die Onboard Karte. Der PVE hat laut FritzBox auch eine IPv6 Adresse bezogen.

An der Auflösung der Domain habe ich nichts verändert. Sehe ich es richtig, dass das Problem ist, dass ich vom PVE einfach keine IPV6 Adressen aufrufen kann?
 
ich weiß nicht wie die fritzbox das feststellt (dhcpv6? slaac?) aber im output oben sehe ich keine

bitte poste doch nochmal den output von
Code:
ip addr
cat /etc/network/interfaces
von der pve node
 
ip addr vom PVE:
Code:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: enp3s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master vmbr0 state UP group default qlen 1000
    link/ether 90:1b:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
3: enp2s0f0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
    link/ether 00:0a:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
4: enp2s0f1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
    link/ether 00:0a:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
5: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 90:1b:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
    inet 192.168.178.54/24 scope global vmbr0
       valid_lft forever preferred_lft forever
    inet6 fe80::921b:xxx:xxxx:xxxx/64 scope link
       valid_lft forever preferred_lft forever
6: veth100i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether fe:de:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 0
7: veth104i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i0 state UP group default qlen 1000
    link/ether fe:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
8: fwbr104i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 86:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
9: fwpr104p0@fwln104i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 2e:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
10: fwln104i0@fwpr104p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i0 state UP group default qlen 1000
    link/ether 7a:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
11: veth104i1@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i1 state UP group default qlen 1000
    link/ether fe:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
12: fwbr104i1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 6a:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
13: fwpr104p1@fwln104i1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 4a:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
14: fwln104i1@fwpr104p1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i1 state UP group default qlen 1000
    link/ether b6:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
15: veth104i2@if4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i2 state UP group default qlen 1000
    link/ether fe:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
16: fwbr104i2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether e6:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
17: fwpr104p2@fwln104i2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 6e:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
18: fwln104i2@fwpr104p2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i2 state UP group default qlen 1000
    link/ether aa:3b:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
19: veth104i3@if5: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i3 state UP group default qlen 1000
    link/ether fe:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
20: fwbr104i3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 9a:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
21: fwpr104p3@fwln104i3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether da:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
22: fwln104i3@fwpr104p3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr104i3 state UP group default qlen 1000
    link/ether e2:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
35: veth102i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr102i0 state UP group default qlen 1000
    link/ether fe:47:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 2
36: fwbr102i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 36:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
37: fwpr102p0@fwln102i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 4a:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
38: fwln102i0@fwpr102p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr102i0 state UP group default qlen 1000
    link/ether 6a:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff

cat /etc/network/interfaces:
Code:
auto lo
iface lo inet loopback

iface enp3s0 inet manual

iface enp2s0f0 inet manual

iface enp2s0f1 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.178.54/24
        gateway 192.168.178.1
        bridge-ports enp3s0
        bridge-stp off
        bridge-fd 0
        hwaddress 90:1b:xx:xx:xx:xx


edit: Ich habe gerade mal meine Fritzbox (per Zufall) neugestartet. Jetzt ist mir aufgefallen, dass dem PVE plötzlich keine IPv6 Adresse mehr zugewiesen wurde. Paar meiner Container, die auf dem PVE laufen schon, und die erreiche ich auch aus dem Internet. Also scheint wirklich das Problem zu sein, dass der PVE selbst keine IPV6 Adresse bezogen hat. Wie kann ich das beheben?
 
Last edited:
mhmm... es scheint als würde ifupdown2 das nicht richtig aktivieren (siehe [0][1])

bitte mal ider 'iface vmbr0 inet static' section folgendes stanza einfügen und 'ifreload -a' ausführen:
post-up echo 2 > /proc/sys/net/ipv6/conf/$IFACE/accept_ra

die section sollte dann so aussehen:
Code:
auto vmbr0
iface vmbr0 inet static
        address 192.168.178.54/24
        gateway 192.168.178.1
        bridge-ports enp3s0
        bridge-stp off
        bridge-fd 0
        hwaddress 90:1b:xx:xx:xx:xx
        post-up echo 2 > /proc/sys/net/ipv6/conf/$IFACE/accept_ra

0: https://forum.proxmox.com/threads/ifupdown2-mess-with-ipv6-global.78809/
1: https://github.com/CumulusNetworks/ifupdown2/issues/178
 
  • Like
Reactions: basti2s

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!