Hallo,
ich habe seit dem 26.08.2024 das Problem, dass der Statusdienst seinen Dienst mit einem Fehler beendet. In dem Zeitraum bis heute ist das 3x aufgetreten. Folgendes steht zum Fehlerzeitpunkt im Syslog:
1. Fehler
2. Fehler
3. Fehler
Es handelt sich um einen Single-Node (kein Cluster). Das System läuft seit November 2023 so wie es jetzt konfiguriert ist - bisher ohne Probleme.
Eckdaten:
CPU(s) 32 x 13th Gen Intel(R) Core(TM) i9-13900K (1 Socket)
Kernel Version Linux 6.8.8-4-pve (2024-07-26T11:15Z)
Boot Mode EFI (Secure Boot)
Manager Version pve-manager/8.2.3/b4648c690591095f
Repository Status Proxmox VE updates Production-ready Enterprise repository enabled
Vor auftreten des Fehlers habe ich folgendes getan:
- Erstmalig einer VM bestimmte CPU Cores zugewiesen (CPU Affinity: 0-11)
- PVE aktualisiert (Update mache ich alle 2 Monate)
Könnte das Problem mit den zugewiesen Kernen zusammenhängen, oder wenn das ausgeschlossen werden kann, liegt ggf. ein Bug vor? Nach einem manuellen starten des Dienstes ist erstmal wieder für ein paar Tage alles i.O.
Danke.
Gruß,
Crash1601
ich habe seit dem 26.08.2024 das Problem, dass der Statusdienst seinen Dienst mit einem Fehler beendet. In dem Zeitraum bis heute ist das 3x aufgetreten. Folgendes steht zum Fehlerzeitpunkt im Syslog:
1. Fehler
Code:
Aug 25 05:02:07 c010 kernel: pvestatd[1412]: segfault at ffffffffffffffff ip 00006006a8ae44cc sp 00007ffd8114d210 error 7 in perl[6006a89f9000+195000] likely on CPU 12 (core 24, socket 0)
Aug 25 05:02:07 c010 kernel: Code: 8b 43 0c e9 6a ff ff ff 66 0f 1f 44 00 00 3c 02 0f 86 a0 00 00 00 0d 00 00 00 10 48 8b 55 10 89 45 0c 48 8b 45 00 48 8b 40 18 <c6> 44 02 ff 00 48 8b 45 00 48 8b 75 10 48 8b 40 18 e9 73 ff ff ff
Aug 25 05:02:07 c010 systemd[1]: pvestatd.service: Main process exited, code=killed, status=11/SEGV
Aug 25 05:02:07 c010 systemd[1]: pvestatd.service: Failed with result 'signal'.
Aug 25 05:02:07 c010 systemd[1]: pvestatd.service: Consumed 3h 20min 39.147s CPU time.
2. Fehler
Code:
Aug 31 11:47:31 c010 kernel: pvestatd[3759981]: segfault at ffffffffffffffff ip 00005f33160cd4cc sp 00007fffe3e29b20 error 7 in perl[5f3315fe2000+195000] likely on CPU 12 (core 24, socket 0)
Aug 31 11:47:32 c010 kernel: Code: 8b 43 0c e9 6a ff ff ff 66 0f 1f 44 00 00 3c 02 0f 86 a0 00 00 00 0d 00 00 00 10 48 8b 55 10 89 45 0c 48 8b 45 00 48 8b 40 18 <c6> 44 02 ff 00 48 8b 45 00 48 8b 75 10 48 8b 40 18 e9 73 ff ff ff
Aug 31 11:47:32 c010 systemd[1]: pvestatd.service: Main process exited, code=killed, status=11/SEGV
Aug 31 11:47:32 c010 systemd[1]: pvestatd.service: Failed with result 'signal'.
Aug 31 11:47:32 c010 systemd[1]: pvestatd.service: Consumed 1h 28min 29.104s CPU time.
3. Fehler
Code:
Sep 02 13:27:59 c010 kernel: pvestatd[970642]: segfault at 107 ip 0000627aba44312a sp 00007ffe1cc87b50 error 4 in perl[627aba35a000+195000] likely on CPU 12 (core 24, socket 0)
Sep 02 13:27:59 c010 kernel: Code: ff 00 00 00 81 e2 00 00 00 04 75 11 49 8b 96 f8 00 00 00 48 89 10 49 89 86 f8 00 00 00 49 83 ae f0 00 00 00 01 4d 85 ff 74 19 <41> 8b 47 08 85 c0 0f 84 c2 00 00 00 83 e8 01 41 89 47 08 0f 84 05
Sep 02 13:27:59 c010 systemd[1]: pvestatd.service: Main process exited, code=killed, status=11/SEGV
Sep 02 13:27:59 c010 systemd[1]: pvestatd.service: Failed with result 'signal'.
Sep 02 13:27:59 c010 systemd[1]: pvestatd.service: Consumed 19min 33.785s CPU time.
Es handelt sich um einen Single-Node (kein Cluster). Das System läuft seit November 2023 so wie es jetzt konfiguriert ist - bisher ohne Probleme.
Eckdaten:
CPU(s) 32 x 13th Gen Intel(R) Core(TM) i9-13900K (1 Socket)
Kernel Version Linux 6.8.8-4-pve (2024-07-26T11:15Z)
Boot Mode EFI (Secure Boot)
Manager Version pve-manager/8.2.3/b4648c690591095f
Repository Status Proxmox VE updates Production-ready Enterprise repository enabled
Vor auftreten des Fehlers habe ich folgendes getan:
- Erstmalig einer VM bestimmte CPU Cores zugewiesen (CPU Affinity: 0-11)
- PVE aktualisiert (Update mache ich alle 2 Monate)
Könnte das Problem mit den zugewiesen Kernen zusammenhängen, oder wenn das ausgeschlossen werden kann, liegt ggf. ein Bug vor? Nach einem manuellen starten des Dienstes ist erstmal wieder für ein paar Tage alles i.O.
Danke.
Gruß,
Crash1601
Last edited: