Netzwerkkarte stürzt ab brauche Hilfe

Guppy82

New Member
Nov 20, 2024
12
1
3
Hallo Leute ich brauche mal eure Hilfe.
Mein Intel Nuc Server ist aus dem Netzwerk nicht mehr zu erreichen.
Natürlich läuft auf dem Nuc Proxmox 8.4.1, in der Systel log bekomme ich den Fehler angezeigt.:



Code:
May 15 09:02:52 Server kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
  TDH                  <83>
  TDT                  <b8>
  next_to_use          <b8>
  next_to_clean        <82>
buffer_info[next_to_clean]:
  time_stamp           <102c09bbc>
  next_to_watch        <83>
  jiffies              <10320cac0>
  next_to_watch.status <0>
MAC Status             <40080083>
PHY Status             <796d>
PHY 1000BASE-T Status  <3800>
PHY Extended Status    <3000>
PCI Status             <10>
May 15 09:02:54 Server kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
  TDH                  <83>
  TDT                  <b8>
  next_to_use          <b8>
  next_to_clean        <82>
buffer_info[next_to_clean]:
  time_stamp           <102c09bbc>
  next_to_watch        <83>
  jiffies              <10320d2c0>
  next_to_watch.status <0>
MAC Status             <40080083>
PHY Status             <796d>
PHY 1000BASE-T Status  <3800>
PHY Extended Status    <3000>
PCI Status             <10>
May 15 09:02:56 Server kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
  TDH                  <83>
  TDT                  <b8>
  next_to_use          <b8>
  next_to_clean        <82>
buffer_info[next_to_clean]:
  time_stamp           <102c09bbc>
  next_to_watch        <83>
  jiffies              <10320da80>
  next_to_watch.status <0>
MAC Status             <40080083>
PHY Status             <796d>
PHY 1000BASE-T Status  <3800>
PHY Extended Status    <3000>
PCI Status             <10>

Was wohl ein Absturz der Netzwerkkarte bedeutet.
Es gibt auch kein genaue zeit wo das passiert mal nach 12 Std oder 7 Tagen
gibt es dafür eine Lösung??
denn ich bin glaube ich nicht der einzige.

Ich bin auf den Kernel 6.8.12-9 zurückgegangen und natürlich das System auf den Neusten stand alles Updates sind gemacht,
aber immer noch.

Kann mir jemand da helfen?
 
Hallo Leute ich brauche mal eure Hilfe.
Mein Intel Nuc Server ist aus dem Netzwerk nicht mehr zu erreichen.
Natürlich läuft auf dem Nuc Proxmox 8.4.1, in der Systel log bekomme ich den Fehler angezeigt.:



Code:
May 15 09:02:52 Server kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
  TDH                  <83>
  TDT                  <b8>
  next_to_use          <b8>
  next_to_clean        <82>
buffer_info[next_to_clean]:
  time_stamp           <102c09bbc>
  next_to_watch        <83>
  jiffies              <10320cac0>
  next_to_watch.status <0>
MAC Status             <40080083>
PHY Status             <796d>
PHY 1000BASE-T Status  <3800>
PHY Extended Status    <3000>
PCI Status             <10>
May 15 09:02:54 Server kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
  TDH                  <83>
  TDT                  <b8>
  next_to_use          <b8>
  next_to_clean        <82>
buffer_info[next_to_clean]:
  time_stamp           <102c09bbc>
  next_to_watch        <83>
  jiffies              <10320d2c0>
  next_to_watch.status <0>
MAC Status             <40080083>
PHY Status             <796d>
PHY 1000BASE-T Status  <3800>
PHY Extended Status    <3000>
PCI Status             <10>
May 15 09:02:56 Server kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
  TDH                  <83>
  TDT                  <b8>
  next_to_use          <b8>
  next_to_clean        <82>
buffer_info[next_to_clean]:
  time_stamp           <102c09bbc>
  next_to_watch        <83>
  jiffies              <10320da80>
  next_to_watch.status <0>
MAC Status             <40080083>
PHY Status             <796d>
PHY 1000BASE-T Status  <3800>
PHY Extended Status    <3000>
PCI Status             <10>

Was wohl ein Absturz der Netzwerkkarte bedeutet.
Es gibt auch kein genaue zeit wo das passiert mal nach 12 Std oder 7 Tagen
gibt es dafür eine Lösung??
denn ich bin glaube ich nicht der einzige.

Ich bin auf den Kernel 6.8.12-9 zurückgegangen und natürlich das System auf den Neusten stand alles Updates sind gemacht,
aber immer noch.

Kann mir jemand da helfen?
Hallo Gupy,

ich habe seit dem ich letzte Woche alle Updates installiert habe das gleiche Problem wie du. Nach einiger Recherche scheint es ein Problem mit dem Netzwerkkarten Treiber bzw. Kernel und dem darauf verbauten Chip zu sein. Ich habe wie in einigen Beiträgen empfohlen einige Features der Netzwerkkarte deaktiviert. Das System läuft nun seit ca. 3 Tagen ohne Probleme. Davor trat der Fehler alle 6-7 Stunden auf.

Meine angepasste Netzwerkkonfiguration sieht nun wie folgt aus

/etc/network/interfaces

Code:
auto lo
iface lo inet loopback

auto enp0s25
iface enp0s25 inet manual
        post-up /usr/sbin/ethtool -K $IFACE gso off tso off gro off 2> /dev/null

auto vmbr0
iface vmbr0 inet static
 
Last edited:
Danke, ich habe auch schon mehre Sachen ausprobiert.
habe auch schon gedacht es wäre alles wider in Ordnung und dann nach 6 Tagen war es wieder da.
ich habe jetzt erst mal den Kernel auf eine Ältere Version zurück gesetzt. 6.8.12-8- und schaue mal.
Es nervt. Da bei mir die Haussteuerung drüber läuft

Wenn es 1-2 Wochen ohne probleme läuft Sag mal bitte bescheid. melde mich mit meiner Lösung auch noch.

Danke schon mal
 
Danke, ich habe auch schon mehre Sachen ausprobiert.
habe auch schon gedacht es wäre alles wider in Ordnung und dann nach 6 Tagen war es wieder da.
ich habe jetzt erst mal den Kernel auf eine Ältere Version zurück gesetzt. 6.8.12-8- und schaue mal.
Es nervt. Da bei mir die Haussteuerung drüber läuft

Wenn es 1-2 Wochen ohne probleme läuft Sag mal bitte bescheid. melde mich mit meiner Lösung auch noch.

Danke schon mal
So da bin ich wieder. Inzwischen sind fast drei Wochen vergangen. Seit der Anpassung der Netzwerkkonfiguration hatte ich keine Probleme mehr. Alles läuft stabil.
 
Moin, also ich habe seit dem 16.5 keine Probleme mehr. mit dem zurück setzen auf 6.8.12.8
Also ist oder war das wohl dir Lösung oder wie oben von JTX2023 beschrieben, die andere lösung.
Heute wurde am Server ein Update gefahren und alles auf den neusten stand gebracht.

bin mal gespannt :-)
 
was soll ich sagen es läuft nach dem Update nichts mehr !!
also
dann mal probiere ich mal deine Methode aus.


Code:
auto lo
iface lo inet loopback

iface eno1 inet manual

auto enp0s25
iface enp0s25 inet manual
        post-up /usr/sbin/ethtool -K $IFACE gso off tso off gro off 2> /dev/null








auto vmbr0
iface vmbr0 inet static
        address 192.168.xxx.10/24
        gateway 192.168.xxx.xxx
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0



so sieht das jetzt aus ist das richtig @JTX2023
 
:rolleyes: sorry, ich stand aufem Schlauch!



Code:
auto lo
iface lo inet loopback

iface eno1 inet manual

auto enp0s25
iface enp0s25 inet manual
        post-up /usr/sbin/ethtool -K enp0s25 gso off tso off gro off 2> /dev/null








auto vmbr0
iface vmbr0 inet static
        address 192.168.xxx.10/24
        gateway 192.168.xxx.xxx
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0


so meinst du das oder?
 
  • Like
Reactions: MarkusKo
Und ist den sichergestellt, dass die Netzwerknamen korrekt sind?
Also in dmesg nachgeschaut?
Mit ethtool <device-name> sieht man auch den Status des device.
Dann gibts noch ip addr show und ip route show, die dir helfen das Netzwerksetup zu überprüfen.

P.S. ich hatte noch nie "abstürze" in der Form, ist evtl. das Hardwareproblem der e1000e, die auch im engl. Teil des Forum massiv auftritt.

Mal ist eine 2.5 GBit/s NIC ab geraucht, in Sinn des Wortes, die musste entsorgt werden.
 
Last edited:
  • Like
Reactions: MarkusKo
So die letzten Einstellungen haben nichts gebracht 26 Std. und der Nuc ist wieder down:mad:

Da ich kein Linux profi bin
kannst du mir da helfen @news

Als ich dmesg ein gegeben habe, wurde mir eine lange liste angezeigt. aber ich glaube das ist wohl das wichtiges.
Code:
RPC: Registered tcp NFSv4.1 backchannel transport module.
[   95.452051] vmbr0: port 1(eno1) entered blocking state
[   95.452056] vmbr0: port 1(eno1) entered disabled state
[   95.452069] e1000e 0000:00:1f.6 eno1: entered allmulticast mode
[   95.452105] e1000e 0000:00:1f.6 eno1: entered promiscuous mode
[   96.120727] Loading iSCSI transport class v2.0-870.
[   98.656922] e1000e 0000:00:1f.6 eno1: NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
[   98.656986] vmbr0: port 1(eno1) entered blocking state
[   98.656989] vmbr0: port 1(eno1) entered forwarding state
[  100.922520] scsi_io_completion_action: 7 callbacks suppressed
[  100.922526] sd 3:0:0:0: [sda] tag#0 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_OK cmd_age=0s
[  100.922530] sd 3:0:0:0: [sda] tag#0 Sense Key : Medium Error [current]
[  100.922531] sd 3:0:0:0: [sda] tag#0 Add. Sense: Unrecovered read error
[  100.922534] sd 3:0:0:0: [sda] tag#0 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
[  100.922535] blk_print_req_error: 7 callbacks suppressed
[  100.922536] critical medium error, dev sda, sector 0 op 0x0:(READ) flags 0x0 phys_seg 2 prio class 0
[  101.619786] EXT4-fs (dm-10): mounted filesystem 94b132b6-b3a0-46c7-9319-371e46fb3a64 r/w with ordered data mode. Quota mode: none.
[  101.872442] kauditd_printk_skb: 16 callbacks suppressed
[  101.872445] audit: type=1400 audit(1749134130.602:28): apparmor="STATUS" operation="profile_load" profile="/usr/bin/lxc-start" name="lxc-102_</var/lib/lxc>" pid=1348 comm="apparmor_parser"
[  102.417095] vmbr0: port 2(fwpr102p0) entered blocking state
[  102.417099] vmbr0: port 2(fwpr102p0) entered disabled state
[  102.417108] fwpr102p0: entered allmulticast mode
[  102.417137] fwpr102p0: entered promiscuous mode
[  102.417166] vmbr0: port 2(fwpr102p0) entered blocking state
[  102.417168] vmbr0: port 2(fwpr102p0) entered forwarding state
[  102.423675] fwbr102i0: port 1(fwln102i0) entered blocking state
[  102.423678] fwbr102i0: port 1(fwln102i0) entered disabled state
[  102.423687] fwln102i0: entered allmulticast mode
[  102.423716] fwln102i0: entered promiscuous mode
[  102.423738] fwbr102i0: port 1(fwln102i0) entered blocking state
[  102.423740] fwbr102i0: port 1(fwln102i0) entered forwarding state
[  102.430117] fwbr102i0: port 2(veth102i0) entered blocking state
[  102.430123] fwbr102i0: port 2(veth102i0) entered disabled state
[  102.430129] veth102i0: entered allmulticast mode
[  102.430155] veth102i0: entered promiscuous mode
[  102.462418] eth0: renamed from vethJzCjYK
[  102.757038] audit: type=1400 audit(1749134131.486:29): apparmor="STATUS" operation="profile_load" label="lxc-102_</var/lib/lxc>//&:lxc-102_<-var-lib-lxc>:unconfined" name="lsb_release" pid=1500 comm="apparmor_parser"
[  102.757320] audit: type=1400 audit(1749134131.487:30): apparmor="STATUS" operation="profile_load" label="lxc-102_</var/lib/lxc>//&:lxc-102_<-var-lib-lxc>:unconfined" name="nvidia_modprobe" pid=1495 comm="apparmor_parser"
[  102.757325] audit: type=1400 audit(1749134131.487:31): apparmor="STATUS" operation="profile_load" label="lxc-102_</var/lib/lxc>//&:lxc-102_<-var-lib-lxc>:unconfined" name="nvidia_modprobe//kmod" pid=1495 comm="apparmor_parser"
[  102.757675] audit: type=1400 audit(1749134131.487:32): apparmor="STATUS" operation=

Mit
ethtool <device-name> kommt:
Code:
-bash: syntax error near unexpected token `newline'
root@Server:~#


Mit ip addr show kommt:

Code:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host noprefixroute
       valid_lft forever preferred_lft forever
2: eno1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master vmbr0 state UP group default qlen 1000
    link/ether 1c:69:7a:6b:6b:82 brd ff:ff:ff:ff:ff:ff
    altname enp0s31f6
3: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 1c:69:7a:6b:6b:82 brd ff:ff:ff:ff:ff:ff
    inet 192.168.100.10/24 scope global vmbr0
       valid_lft forever preferred_lft forever
    inet6 fe80::1e69:7aff:fe6b:6b82/64 scope link
       valid_lft forever preferred_lft forever
4: veth102i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr102i0 state UP group default qlen 1000
    link/ether fe:2a:ea:51:aa:7a brd ff:ff:ff:ff:ff:ff link-netnsid 0
5: fwbr102i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 26:83:69:e9:cb:78 brd ff:ff:ff:ff:ff:ff
6: fwpr102p0@fwln102i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 3a:3e:88:b9:8d:04 brd ff:ff:ff:ff:ff:ff
7: fwln102i0@fwpr102p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr102i0 state UP group default qlen 1000
    link/ether 26:83:69:e9:cb:78 brd ff:ff:ff:ff:ff:ff
8: tap100i0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master fwbr100i0 state UNKNOWN group default qlen 1000
    link/ether a6:1a:d9:69:9c:ab brd ff:ff:ff:ff:ff:ff
9: fwbr100i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether fa:d8:60:9b:d4:64 brd ff:ff:ff:ff:ff:ff
10: fwpr100p0@fwln100i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 5e:0d:d2:4f:80:a1 brd ff:ff:ff:ff:ff:ff
11: fwln100i0@fwpr100p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr100i0 state UP group default qlen 1000
    link/ether fa:d8:60:9b:d4:64 brd ff:ff:ff:ff:ff:ff
12: tap110i0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master fwbr110i0 state UNKNOWN group default qlen 1000
    link/ether de:2b:34:e0:ef:70 brd ff:ff:ff:ff:ff:ff
13: fwbr110i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 7a:be:af:27:4e:60 brd ff:ff:ff:ff:ff:ff
14: fwpr110p0@fwln110i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 1e:23:f4:c5:38:be brd ff:ff:ff:ff:ff:ff
15: fwln110i0@fwpr110p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr110i0 state UP group default qlen 1000
    link/ether 7a:be:af:27:4e:60 brd ff:ff:ff:ff:ff:ff
16: tap111i0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master fwbr111i0 state UNKNOWN group default qlen 1000
    link/ether 2a:86:a9:d7:8e:eb brd ff:ff:ff:ff:ff:ff
17: fwbr111i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 22:e4:c1:ac:48:e8 brd ff:ff:ff:ff:ff:ff
18: fwpr111p0@fwln111i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether f6:f0:74:d9:45:18 brd ff:ff:ff:ff:ff:ff
19: fwln111i0@fwpr111p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr111i0 state UP group default qlen 1000
    link/ether 22:e4:c1:ac:48:e8 brd ff:ff:ff:ff:ff:ff
20: tap112i0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master fwbr112i0 state UNKNOWN group default qlen 1000
    link/ether 3e:e9:32:f6:6d:e8 brd ff:ff:ff:ff:ff:ff
21: fwbr112i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 5e:26:39:fb:4f:cf brd ff:ff:ff:ff:ff:ff
22: fwpr112p0@fwln112i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether fe:9c:a0:59:f5:46 brd ff:ff:ff:ff:ff:ff
23: fwln112i0@fwpr112p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr112i0 state UP group default qlen 1000
    link/ether 5e:26:39:fb:4f:cf brd ff:ff:ff:ff:ff:ff
24: tap101i0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master fwbr101i0 state UNKNOWN group default qlen 1000
    link/ether e6:4d:31:5b:76:7c brd ff:ff:ff:ff:ff:ff
25: fwbr101i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 82:df:39:c5:f7:8a brd ff:ff:ff:ff:ff:ff
26: fwpr101p0@fwln101i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether fe:9e:b3:14:cc:d8 brd ff:ff:ff:ff:ff:ff
27: fwln101i0@fwpr101p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr101i0 state UP group default qlen 1000
    link/ether 82:df:39:c5:f7:8a brd ff:ff:ff:ff:ff:ff
28: veth105i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr105i0 state UP group default qlen 1000
    link/ether fe:13:ac:60:30:10 brd ff:ff:ff:ff:ff:ff link-netnsid 1
29: fwbr105i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether ba:ce:9d:5e:f7:0a brd ff:ff:ff:ff:ff:ff
30: fwpr105p0@fwln105i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 16:f5:81:ad:24:ec brd ff:ff:ff:ff:ff:ff
31: fwln105i0@fwpr105p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr105i0 state UP group default qlen 1000
    link/ether ba:ce:9d:5e:f7:0a brd ff:ff:ff:ff:ff:ff
32: veth120i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr120i0 state UP group default qlen 1000
    link/ether fe:eb:77:5b:3d:f7 brd ff:ff:ff:ff:ff:ff link-netnsid 2
33: fwbr120i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether a2:2e:8c:7b:54:3a brd ff:ff:ff:ff:ff:ff
34: fwpr120p0@fwln120i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 5a:e3:c2:2f:69:db brd ff:ff:ff:ff:ff:ff
35: fwln120i0@fwpr120p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr120i0 state UP group default qlen 1000
    link/ether a2:2e:8c:7b:54:3a brd ff:ff:ff:ff:ff:ff
36: veth103i0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether fe:5f:77:70:73:ce brd ff:ff:ff:ff:ff:ff link-netnsid 3
root@Server:~#


ip route show kommt:

Code:
default via 192.168.100.100 dev vmbr0 proto kernel onlink
192.168.100.0/24 dev vmbr0 proto kernel scope link src 192.168.100.10
root@Server:~#



Ich weiß echt nicht weiter!!
mit der Kernel 6.8.12-8 habe ich keine Probleme da läuft es stabil.

@news kannst du mir sagen wie ich die (/etc/network/interfaces) passend editiere das es bei mir läuft.

schon mal danke!