Asus NUC14, bei 2x NVME kein Nic

DIe Corsair Mini finde ich nur mit 2230 Formfaktor. Hast du die auf einem 2242 Adapter oder sowas eingebaut?
Stehen beide auch schon mal nicht auf der Asus Kompatibilitätsliste, das beruhigt mich schon mal.
Alles was da draufsteht ist im Handel kaum oder nicht mehr zu bekommen.
Meine Karten stehen da auch nicht, sind aber von Herstellern die aufgelistet wurden.
Ja, genau, irgend so eine passive Verlängerung zum Anschrauben von Amazon.
 
  • Like
Reactions: Beutegreifer
Aktuell irgendwie nicht, wie kommst du zu der Annahme? Hast du tiefere Einblicke in die Kernelmechaniken oder ist das eher so ein Bauchgefühl?
Wenn dein Linux Kernel noch mechanisch arbeitet, dann würde das einiges erklären. :cool:

Jetzt ernsthaft und zum Thema:
Falls deine NUC keine eingebaute EFI-Shell mehr besitzt besogst du dir ein passenden X64-Binary z.B. hier: https://github.com/pbatard/UEFI-Shell/releases . In dem Fall dann als "bootx64.efi" auf einen USB-Stick, ins "/EFI/BOOT/" Verzeichnis und den Stick booten. Siehe auch z.B. hier: https://www.thomas-krenn.com/de/wiki/EFI_Shell_USB_Stick

Dann schaust du dir im Problemfall mal die Ausgabe des "pci" Commands in der EFI-Shell an.
Wenn dort dein i226 nicht auftaucht (passende IDs, siehe hier: https://admin.pci-ids.ucw.cz/read/PC/8086), dann kann der Kernel machen was er will, denn dann ist das - wie schon erwähnt - kein Thema des OS.
 
  • Like
Reactions: Johannes S
So wie das, unten zitiert im Originalbeitrag steht, sagt es aus, dass Windows wunderbar läuft bevor man einen weiteren Slot bestückt.
Auch Windows hat keine Probleme mit zwei Karten.
Wird anschließend der zweite Slot bestückt, ist das Netzwerk nicht mehr erreichbar.
lspci zeigt dann den Controller nicht mehr an.
Also entweder war das schwer missverständlich formuliert, oder hat keine Aussagekraft.
 
Hallo @Beutegreifer,

der entscheidende Punkt, um das Problem einzugrenzen, ist der Vorschlag von @celemine1gig: Schau bitte mal direkt in der UEFI-Shell nach, ob der Netzwerkcontroller (I226-V) mit dem pci Befehl überhaupt noch aufgelistet wird, wenn beide NVMEs verbaut sind.

Das würde auch deine Beobachtung klären, dass es unter Windows anscheinend funktioniert. Wenn der Controller in der UEFI-Shell sichtbar ist, liegt es ziemlich sicher an Proxmox/Linux. Wenn er dort aber schon fehlt, ist es ein reines BIOS/Hardware-Problem und der Linux-Kernel kann ihn gar nicht erst finden.
 
Hallo @Beutegreifer,

der entscheidende Punkt, um das Problem einzugrenzen, ist der Vorschlag von @celemine1gig: Schau bitte mal direkt in der UEFI-Shell nach, ob der Netzwerkcontroller (I226-V) mit dem pci Befehl überhaupt noch aufgelistet wird, wenn beide NVMEs verbaut sind.

Das würde auch deine Beobachtung klären, dass es unter Windows anscheinend funktioniert. Wenn der Controller in der UEFI-Shell sichtbar ist, liegt es ziemlich sicher an Proxmox/Linux. Wenn er dort aber schon fehlt, ist es ein reines BIOS/Hardware-Problem und der Linux-Kernel kann ihn gar nicht erst finden.

Hallo Bu66as

Test durchgeführt mit
1x Boot - Transcend 1TB MTE400S NVMe PCIe Gen3 x M.2 2242 SSD
1x Data - Samsung 990 EVO Plus NVMe2.0 M.2 SSD 1 TB, PCIe 4.0 x4 PCIe 5.0 x2, 2280

1. Boot zu Proxmox -> Ping auf den Router schlägt fehl
2. Boot efi Stick -> Netzwerk Controller ist sichtbar

1759429950445.png
 
Jetzt bitte ein "lspci -n" unter Linux, in dem dann hoffentlich der "8086:125C" Eintrag verschwunden ist. Denn nur weil ein Ping nicht geht, heißt das erstmal nix.
 
Der Eintrag ist nicht verschwunden.
Gestern lief auf den Nucs das neue Kernelupdate (Mit dem heute die Proxmox UI verschwunden war, ohne irgendwelche Helperscripte).
In den ursprünglichen Logs vor dem Kernelupdate wurde bei lspci keine Netzwerkkarte angezeigt.

Wie komme ich nun zu einer funktionierenden Netzwerkverbindung in Dualbestückung?

Code:
00:00.0 0600: 8086:7d01 (rev 04)
00:01.0 0604: 8086:7ecc (rev 10)
00:02.0 0300: 8086:7d55 (rev 08)
00:04.0 1180: 8086:7d03 (rev 04)
00:06.0 0604: 8086:7ecb (rev 10)
00:07.0 0604: 8086:7ec4 (rev 10)
00:07.2 0604: 8086:7ec6 (rev 10)
00:08.0 0880: 8086:7e4c (rev 20)
00:0a.0 1180: 8086:7d0d (rev 01)
00:0b.0 1200: 8086:7d1d (rev 04)
00:0d.0 0c03: 8086:7ec0 (rev 10)
00:0d.2 0c03: 8086:7ec2 (rev 10)
00:0d.3 0c03: 8086:7ec3 (rev 10)
00:12.0 0700: 8086:7e45 (rev 20)
00:14.0 0c03: 8086:7e7d (rev 20)
00:14.2 0500: 8086:7e7f (rev 20)
00:16.0 0780: 8086:7e70 (rev 20)
00:17.0 0106: 8086:7e63 (rev 20)
00:1c.0 0604: 8086:7e3c (rev 20)
00:1f.0 0601: 8086:7e02 (rev 20)
00:1f.4 0c05: 8086:7e22 (rev 20)
00:1f.5 0c80: 8086:7e23 (rev 20)
01:00.0 0108: 144d:a80d
02:00.0 0108: 1d79:2263 (rev 03)
57:00.0 0200: 8086:125c (rev 04)
 
Mehr als den Hinweis "56 vs. 57" wird's von mir nicht mehr geben, denn den Hinweis zu diesem Thema gab es ganz zu Anfang schon. Viel Erfolg!
Auf dem Silbertablett dürfen es andere präsentieren, wenn sie wollen.
 
@Beutegreifer,

der Hinweis von @celemine1gig mit "56 vs. 57" ist der entscheidende Punkt. Durch den Einbau der zweiten NVMe ist deine Netzwerkkarte von PCI-Bus 56:00.0 (siehe dein erster Post) auf 57:00.0 (dein letzter Post) umgezogen.

Dadurch hat Proxmox dem Netzwerk-Interface einen neuen Namen gegeben. Deine Konfiguration in /etc/network/interfaces zeigt aber noch auf den alten Namen, weshalb keine Verbindung zustande kommt.

Sieh dir mit ip a an, wie das Interface jetzt heißt (vermutlich enp57s0 o.ä.), und passe den Namen in der Datei /etc/network/interfaces an. Nach einem Neustart des Netzwerks sollte alles wieder funktionieren.