IPv6-Verbindung der VMs bricht ab

Aloha (ja, ich weiß, draußen ist es kalt...),

ich habe ein Problem mit meinem dedizierten Server bei SoYouStart im Bezug mit IPv6-Adressen:
Wenn ich eine VM (KVM, mit LXC noch nicht getestet) starte, ist diese sofort mit einer IPv6-Adresse erreichbar - folgende Config wird verwendet:

Code:
iface ens18 inet6 static
    address 2001:41d0:8:XXXX::2d
    netmask 128
    post-up /sbin/ip -f inet6 route add 2001:41d0:0008:42ff:ff:ff:ff:ff dev ens18
    post-up /sbin/ip -f inet6 route add default via 2001:41d0:0008:42ff:ff:ff:ff:ff
    pre-down /sbin/ip -f inet6 route del default via 2001:41d0:0008:42ff:ff:ff:ff:ff
    pre-down /sbin/ip -f inet6 route del 2001:41d0:0008:42ff:ff:ff:ff:ff dev ens18
    dns-nameservers 2001:4860:4860::8888 2001:4860:4860::8844

Nach ca. 30 Minuten ist der Server dann einfach nicht mehr erreichbar, ein Traceroute sieht dann bspw. so aus:
Code:
Start: Mon Jan 30 20:03:41 2017
HOST: T420Mint                                              Loss%   Snt   Last   Avg  Best  Wrst StDev
  1.|-- fritz.box                                              0.0%    10   16.2  14.5   0.7  16.3   4.8
  2.|-- p200300D29BBF01810000000000000001.dip0.t-ipconnect.de  0.0%    10   16.1  15.9  15.6  16.2   0.0
  3.|-- ???                                                   100.0    10    0.0   0.0   0.0   0.0   0.0
  4.|-- ???                                                   100.0    10    0.0   0.0   0.0   0.0   0.0
  5.|-- be100-2.fra-1-a9.de.eu                                 0.0%    10   26.8  26.7  26.5  27.1   0.0
  6.|-- be1-1170.sbg-g1-a9.fr.eu                               0.0%    10   29.7  29.9  29.4  31.1   0.3
  7.|-- vl21.sbg-g1-a75.fr.eu                                  0.0%    10   29.5  29.2  29.0  29.5   0.0
  8.|-- vl1250.rbx-g1-a75.fr.eu                                0.0%    10   37.0  37.0  36.7  37.4   0.0
  9.|-- 2001:41d0:0:5:2::27                                    0.0%    10   35.7  35.8  35.7  36.1   0.0
10.|-- 2001:41d0:0:5:3::1c9                                   0.0%    10   37.0  75.7  36.7 243.3  71.5
11.|-- ???                                                   100.0    10    0.0   0.0   0.0   0.0   0.0

Wenn ich die VM restarte, ist das Problem wieder temporär behoben, der dedizierte Server ist über IPv6 aber bspw. dauerhaft erreichbar.
Ich habe mir schon Lösungsvorschläge angeschaut, wie bspw. Proxy_NDP in der sysctl.conf des dedizierten auf 1 zu setzen - dies gelingt jedoch ohne Wirkung. (Netzwerk wurde restarted)

Über IPv4 ist der Server jedoch weiterhin normal erreichbar.
Die Netzwerkkonfiguration des dedizierten Servers schaut so aus (bitte schlagt mich nicht, aufgrund der vielen vmbr-Interfaces, ich weiß, dass das ekelhaft aussieht - falls jemand einen Verbesserungsvorschlag dazu besitzt, kann er ihn gern höflich senden, dafür wäre ich sehr dankbar ;))
Code:
# This file describes the network interfaces available on your system
# and how to activate them. For more information, see interfaces(5).

# The loopback network interface
auto lo
iface lo inet loopback

# for Routing
auto vmbr1
iface vmbr1 inet manual
    post-up /etc/pve/kvm-networking.sh
    bridge_ports dummy0
    bridge_stp off
    bridge_fd 0


# vmbr0: Bridging. Make sure to use only MAC adresses that were assigned to you.
auto vmbr0
iface vmbr0 inet static
    address 176.31.XXX.XXX
    netmask 255.255.255.0
    network 176.31.123.0
    broadcast 176.31.123.255
    gateway 176.31.XXX.XXX
    bridge_ports eth0
    bridge_stp off
    bridge_fd 0

auto vmbr2
allow-hotplug vmbr2
iface vmbr2 inet static
    address 79.137.116.XXX
    netmask 255.255.255.255
    broadcast 79.137.116.255
    gateway 176.31.123.254
    bridge_ports none
        bridge_stp off
        bridge_fd 0

auto vmbr3
allow-hotplug vmbr3
iface vmbr3 inet static
    address 79.137.119.XXX
    broadcast 79.137.119.255
    netmask 255.255.255.255
    gateway 176.31.123.254
    bridge_ports none
    bridge_stp off
    bridge_fd 0
    up /sbin/ip addr add 79.137.119.XXX/32 brd 79.137.119.255 dev vmbr3
    up /sbin/ip addr add 79.137.119.XXX/32 brd 79.137.119.255 dev vmbr3
    up /sbin/ip addr add 79.137.119.XXX/32 brd 79.137.119.255 dev vmbr3

iface vmbr0 inet6 static
    address 2001:41d0:0008:XXXX::
    netmask 64
    post-up /sbin/ip -f inet6 route add 2001:41d0:0008:42ff:ff:ff:ff:ff dev vmbr0
    post-up /sbin/ip -f inet6 route add default via 2001:41d0:0008:42ff:ff:ff:ff:ff
    pre-down /sbin/ip -f inet6 route del default via 2001:41d0:0008:42ff:ff:ff:ff:ff
    pre-down /sbin/ip -f inet6 route del 2001:41d0:0008:42ff:ff:ff:ff:ff dev vmbr0


Schon mal vielen Dank für die Bemühungen, sich diesen Beitrag überhaupt durchzulesen. Dieser Beitrag existiert auch im OVH-Forum, dort möchte aber wohl keiner antworten. Der OVH-Support meinte, es wäre ein Proxmox-Bug und hier sei meine Anlaufstelle.
 
Sag mal, das LXC ist nicht zufällig auch ein Debian? Wenn ja, schau dir mal die Route nach dem Neustart an.
Code:
ip -6 route show dev ethX
Zählt die Zeit da runter? Wenn ja, wenn sie auf Null ist, ist die Route weg?
 
Danke für deine Antwort.
Nach einem Reboot gab es die Ausgabe (ens18, da es Ubuntu 16.04 ist):
Code:
root@vps:~# ip -6 route show dev ens18
2001:41d0:8:429f::2d  proto kernel  metric 256  pref medium
2001:41d0:8:42ff:ff:ff:ff:ff  metric 1024  pref medium
2001:41d0:8:4200::/56  proto kernel  metric 256  expires 2591976sec pref medium
fe80::/64  proto kernel  metric 256  pref medium
default via fe80::66ae:cff:fe40:f100  proto ra  metric 1024  expires 1776sec hoplimit 64 pref medium
default via fe80::66ae:cff:fe40:f080  proto ra  metric 1024  expires 1776sec hoplimit 64 pref medium

Ja, die Zeit zählt runter... die Verbindung war, wenn die lokale Route auf 0 war, weg ich habe dann mal gegoogled und das hier gefunden: http://serverfault.com/questions/77...-expires-after-1800-secs-loosing-connectivity

Dies hilft, denn die Zeit zählt nicht mehr runter... Da möge mir nur einer sagen, wieso das nur bei OVH auftritt... genau gleiches OS und gleiche Proxmox-Version bei Hetzner und alles geht
 
Tja das ist die 100.000 Euro Frage. Ich hatte das gleich Problem bei 2 PVEnodes, aber noch nie bei VMs oder LXCs. Mir ist bis heut unklar an was das liegen könnte. Denn Beispiel PVE: Installierte ich die Node neu, war das Problem gegessen... wie wenn ein Knoten im TCPstack war... komisch.
 
Mit dem oben genannten Link funktioniert das Problem... Letztendlich fehlen den ganzen VMs die Verweigerung der RAs vom NDP... Die Cisco-Router bei OVH liefern dies (in diesem Fall) falsch aus... Problem liegt wohl in deren Konfiguration, habe ich vorhin gemeldet... Mal schauen, was die Techniker in Frankreich aus der Meldung so machen...
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!