Keine Netzwerkverbindung mehr nach Umzug auf größere SSD

nalp

New Member
Feb 9, 2024
3
0
1
Hallo,

ich habe Proxmox aktuell auf einem Intel NUC laufen, allerdings ist die interne SSD nur 128 GB groß und wird bereits fast komplett ausgereizt. Deswegen möchte ich stattdessen eine SSD mit 256 GB, die ich noch herumliegen habe, benutzen. Dazu klone ich die 128-SSD mittels Clonezilla (Standardeinstellungen im Einsteigermodus, mit proportionaler Anpassung der Partitionstabelle).

So weit so gut, klonen klappt und ich kann mit der neuen SSD Proxmox starten und auch die einzelnen VMs laufen, soweit ich das sehen kann. Nun zu meinem Problem:

Ich bekomme keinen Netzwerkzugriff zu Proxmox mehr. SSH zu Proxmox oder einer der VMs geht nicht mehr und auch im Router taucht keines der Systeme mehr auf. Ich habe nun in diesem Thread nachgeschaut und stelle folgende Dinge fest, wenn ich die beiden SSDs direkt nach dem Klonen vergleiche:

Die Ausgabe von cat /etc/network/interfaces ist bei beiden identisch:
Code:
auto lo
iface lo inet loopback
iface enp1s0 inet manual
auto vmbr0
iface vmbr0 inet static
        address [IP des Geräts]
        gateway [IP des Gateways]
        bridge-ports enp1s0
        bridge-stp off
        bridge-fd 0

iface wlp0s20f3 inet manual
source /etc/network/interfaces.d/*
Die Ausgabe von ip a unterscheidet sich, hier mal die obersten Einträge:
Altes, funktionierendes System:
Code:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host noprefixroute
       valid_lft forever preferred_lft forever
2: enp1s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master vmbr0 state UP group default qlen 1000
    link/ether 88:ae:dd:07:b9:ed brd ff:ff:ff:ff:ff:ff
3: wlp0s20f3: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
    link/ether 70:32:17:c1:73:f7 brd ff:ff:ff:ff:ff:ff
4: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 88:ae:dd:07:b9:ed brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.3/24 scope global vmbr0
       valid_lft forever preferred_lft forever
    inet6 fe80::8aae:ddff:fe07:b9ed/64 scope link
       valid_lft forever preferred_lft forever
5: tap100i0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master fwbr100i0 state UNKNOWN group default qlen 1000
    link/ether b2:84:f5:49:b7:0b brd ff:ff:ff:ff:ff:ff

Neues System, ohne Netzwerkzugriff (leider fehlt rechts ein Teil, ich hoffe das wesentliche ist sichtbar):
signal-2024-02-25-133007_002.jpg

Wenn ich (wie in dem verlinkten Beitrag), ip link set eno1 up nutze, taucht das Gerät zwar im Router auf, eine IP-Adresse wird aber nicht vergeben. Außerdem sehe ich, dass im neuen System in interfaces in beiden Fällen bridge-ports enp1s0 aufgeführt ist, allerdings nach ip a im neuen System kein enp1s0 mehr existiert, kann es daran liegen?

Insgesamt habe ich zwei Fragen dazu:
- Was kann ich tun, um auch mit der neuen SSD den Netzwerkzugriff einzurichten bzw. zu ermöglichen?
- Woran liegt es, dass direkt nach dem Klonen die Ausgabe von ip a in beiden Systemen unterschiedlich ist? Müsste durch das Klonen diese nicht eigentlich gleich sein?
 
Außerdem sehe ich, dass im neuen System in interfaces in beiden Fällenbridge-ports enp1s0 aufgeführt ist, allerdings nach ip a im neuen System kein enp1s0 mehr existiert, kann es daran liegen?
- Was kann ich tun, um auch mit der neuen SSD den Netzwerkzugriff einzurichten bzw. zu ermöglichen?

iface enp1s0 inet manual und bridge-ports enp1s0 jeweils auf: eno1 abändern und den PVE-Host neustarten.
 
Das probiere ich später mal, danke! Ich denke ich habe jetzt auch (grob) verstanden, was die Einträge hier bedeuten.
Was bleibt ist dann nur die Frage, wieso das network interface nach dem Klonen plötzlich anders heißt?
 
So, mal ein Update:
iface enp1s0 inet manual und bridge-ports enp1s0 jeweils auf: eno1 abändern und den PVE-Host neustarten.
Das hat geklappt, vielen Dank. Ich musste noch das lvm anpassen, jetzt scheint aber alles zu gehen.
Danke für den Link. Nur verstehe ich immer noch nicht, wie eine neue Festpaltte dazu führt, dass die Netzwerkinterfaces anders heißen?
 
Nur verstehe ich immer noch nicht, wie eine neue Festpaltte dazu führt, dass die Netzwerkinterfaces anders heißen?

Unter dem Link wird aufgeführt, wie die Namen zustande kommen.
Kurz und simpel gesagt: Änderst du z.B. etwas an den PCIe-Geräten, wie z.B. mit dem Hinzufügen einer NVMe SSD, ändern sich mit hoher Wahrscheinlichkeit auch die Namen der Netzwerkschnittstellen.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!