Zugriff auf storage-informationen: communicationfailure(0)

snboris

Member
Dec 19, 2021
10
0
6
56
Hallo zusammen...

Seit einiger Zeit bekomme ich auf meinem Proxmoxserver beim Zugriff auf Storage-Informationen (im Webgui) keine Antwort mehr und nach einiger Zeit einen CommunicataionFailure(0)
Sei es beim Click auf den Storage in der Serveransicht oder auch beim Auswählen des storage für ein Backup oder beim Hinzufügen einer virtuellen Platte zu einer VM.

pvecm status bringt mir ein:
Error: Corosync config '/etc/pve/corosync.conf' does not exist - is this node part of a cluster?
Ist die corosync.conf nicht nur für Clusterbertrieb notwendig? Es ist aber ein Standalone-Node.

Ansonsten läuft alles ohne Störungen.

An was könnte das liegen?

pveversion zeigt:


proxmox-ve: 7.4-1 (running kernel: 5.15.107-2-pve)
pve-manager: 7.4-3 (running version: 7.4-3/9002ab8a)
pve-kernel-5.15: 7.4-3
pve-kernel-5.15.107-2-pve: 5.15.107-2
pve-kernel-5.15.102-1-pve: 5.15.102-1
ceph-fuse: 15.2.17-pve1
corosync: 3.1.7-pve1
criu: 3.15-1+pve-1
glusterfs-client: 9.2-1
ifupdown2: 3.1.0-1+pmx3
ksm-control-daemon: 1.4-1
libjs-extjs: 7.0.0-1
libknet1: 1.24-pve2
libproxmox-acme-perl: 1.4.4
libproxmox-backup-qemu0: 1.3.1-1
libproxmox-rs-perl: 0.2.1
libpve-access-control: 7.4-2
libpve-apiclient-perl: 3.2-1
libpve-common-perl: 7.4-1
libpve-guest-common-perl: 4.2-4
libpve-http-server-perl: 4.2-3
libpve-rs-perl: 0.7.6
libpve-storage-perl: 7.4-2
libspice-server1: 0.14.3-2.1
lvm2: 2.03.11-2.1
lxc-pve: 5.0.2-2
lxcfs: 5.0.3-pve1
novnc-pve: 1.4.0-1
proxmox-backup-client: 2.4.1-1
proxmox-backup-file-restore: 2.4.1-1
proxmox-kernel-helper: 7.4-1
proxmox-mail-forward: 0.1.1-1
proxmox-mini-journalreader: 1.3-1
proxmox-widget-toolkit: 3.6.5
pve-cluster: 7.3-3
pve-container: 4.4-3
pve-docs: 7.4-2
pve-edk2-firmware: 3.20230228-2
pve-firewall: 4.3-1
pve-firmware: 3.6-5
pve-ha-manager: 3.6.1
pve-i18n: 2.12-1
pve-qemu-kvm: 7.2.0-8
pve-xtermjs: 4.16.0-1
qemu-server: 7.4-3
smartmontools: 7.2-pve3
spiceterm: 3.2-2
swtpm: 0.8.0~bpo11+3
vncterm: 1.7-1
zfsutils-linux: 2.1.11-pve1
 
pvecm status bringt mir ein:
Error: Corosync config '/etc/pve/corosync.conf' does not exist - is this node part of a cluster?
Ist die corosync.conf nicht nur für Clusterbertrieb notwendig? Es ist aber ein Standalone-Node.
Hi,
ja für standalone host ist das ok, daher auch die Frage im output.

An was könnte das liegen?
Das klingt eher als ob der pvestatd nicht reagiert. Poste bitte den output von
Bash:
journalctl -b -u pvestatd.service -u pveproxy.service
systemctl status pvestatd.service pveproxy.service
 
Journalctl:
-- Journal begins at Sun 2023-04-30 13:49:42 CEST, ends at Thu 2023-05-11 17:00:42 CEST. --
May 11 16:08:12 data systemd[1]: Starting PVE Status Daemon...
May 11 16:08:12 data pvestatd[3689]: starting server
May 11 16:08:12 data systemd[1]: Started PVE Status Daemon.
May 11 16:08:13 data systemd[1]: Starting PVE API Proxy Server...
May 11 16:08:13 data pveproxy[4405]: starting server
May 11 16:08:13 data pveproxy[4405]: starting 3 worker(s)
May 11 16:08:13 data pveproxy[4405]: worker 4406 started
May 11 16:08:13 data pveproxy[4405]: worker 4407 started
May 11 16:08:13 data pveproxy[4405]: worker 4410 started
May 11 16:08:13 data systemd[1]: Started PVE API Proxy Server.
May 11 16:08:51 data pveproxy[4410]: proxy detected vanished client connection
May 11 16:10:24 data pvestatd[3689]: status update time (121.812 seconds)
May 11 16:10:24 data pvestatd[3689]: modified cpu set for lxc/212: 0-5
May 11 16:10:24 data pvestatd[3689]: modified cpu set for lxc/213: 0
May 11 16:10:24 data pvestatd[3689]: modified cpu set for lxc/216: 6
May 11 16:10:28 data pveproxy[4407]: proxy detected vanished client connection
May 11 16:10:29 data pveproxy[4407]: proxy detected vanished client connection
May 11 16:10:35 data pveproxy[4406]: proxy detected vanished client connection
May 11 16:10:37 data pvestatd[3689]: unable to get PID for CT 222 (not running?)
May 11 16:10:37 data pvestatd[3689]: status update time (12.765 seconds)
May 11 16:10:37 data pvestatd[3689]: modified cpu set for lxc/212: 1-5,7
May 11 16:10:51 data pveproxy[4407]: proxy detected vanished client connection
May 11 16:10:54 data pveproxy[4410]: proxy detected vanished client connection
May 11 16:11:12 data pvestatd[3689]: status update time (35.463 seconds)
May 11 16:11:12 data pvestatd[3689]: modified cpu set for lxc/212: 1-4,7-8
May 11 16:11:12 data pvestatd[3689]: modified cpu set for lxc/218: 10
May 11 16:11:18 data pveproxy[4406]: proxy detected vanished client connection
May 11 16:11:27 data pveproxy[4406]: proxy detected vanished client connection
May 11 16:11:27 data pveproxy[4407]: proxy detected vanished client connection
May 11 16:11:44 data pvestatd[3689]: status update time (31.816 seconds)
May 11 16:11:44 data pveproxy[4406]: proxy detected vanished client connection
May 11 16:12:45 data pvestatd[3689]: status update time (60.717 seconds)
May 11 16:13:17 data pvestatd[3689]: status update time (31.663 seconds)
May 11 16:14:16 data pvestatd[3689]: status update time (59.580 seconds)
May 11 16:14:47 data pvestatd[3689]: status update time (30.495 seconds)
May 11 16:15:45 data pvestatd[3689]: status update time (58.619 seconds)
May 11 16:17:17 data pvestatd[3689]: status update time (81.684 seconds)
May 11 16:17:47 data pvestatd[3689]: status update time (30.497 seconds)
May 11 16:18:26 data pvestatd[3689]: status update time (39.244 seconds)
May 11 16:19:47 data pvestatd[3689]: status update time (80.173 seconds)
May 11 16:20:17 data pvestatd[3689]: status update time (30.652 seconds)
May 11 16:20:57 data pvestatd[3689]: status update time (39.403 seconds)
May 11 16:21:48 data pvestatd[3689]: status update time (51.836 seconds)
May 11 16:22:49 data pvestatd[3689]: status update time (60.122 seconds)
May 11 16:24:17 data pvestatd[3689]: status update time (88.936 seconds)
May 11 16:26:19 data pvestatd[3689]: status update time (121.597 seconds)
May 11 16:28:19 data pvestatd[3689]: status update time (119.434 seconds)
May 11 16:29:19 data pvestatd[3689]: status update time (60.173 seconds)
May 11 16:30:50 data pvestatd[3689]: status update time (91.134 seconds)
May 11 16:31:50 data pvestatd[3689]: status update time (60.178 seconds)
May 11 16:32:22 data pveproxy[4410]: worker exit
May 11 16:32:22 data pveproxy[4405]: worker 4410 finished
May 11 16:32:22 data pveproxy[4405]: starting 1 worker(s)
May 11 16:32:22 data pveproxy[4405]: worker 1082121 started
May 11 16:32:49 data pvestatd[3689]: status update time (59.507 seconds)
May 11 16:33:50 data pvestatd[3689]: status update time (60.832 seconds)
May 11 16:34:50 data pvestatd[3689]: status update time (59.769 seconds)
May 11 16:36:21 data pvestatd[3689]: status update time (90.553 seconds)
May 11 16:37:21 data pvestatd[3689]: status update time (59.989 seconds)
May 11 16:39:21 data pvestatd[3689]: status update time (120.545 seconds)
May 11 16:40:11 data pveproxy[4407]: worker exit
May 11 16:40:11 data pveproxy[4405]: worker 4407 finished
May 11 16:40:11 data pveproxy[4405]: starting 1 worker(s)
May 11 16:40:11 data pveproxy[4405]: worker 1456689 started
May 11 16:41:21 data pvestatd[3689]: status update time (119.711 seconds)
May 11 16:41:21 data pvestatd[3689]: unable to get PID for CT 222 (not running?)
May 11 16:42:52 data pvestatd[3689]: status update time (91.114 seconds)
May 11 16:44:42 data pvestatd[3689]: status update time (109.726 seconds)
May 11 16:46:44 data pvestatd[3689]: status update time (122.202 seconds)
May 11 16:47:26 data pveproxy[4406]: worker exit
May 11 16:47:26 data pveproxy[4405]: worker 4406 finished
May 11 16:47:26 data pveproxy[4405]: starting 1 worker(s)
May 11 16:47:26 data pveproxy[4405]: worker 1800993 started
May 11 16:47:54 data pvestatd[3689]: status update time (69.700 seconds)
May 11 16:48:49 data pvestatd[3689]: status update time (55.387 seconds)
May 11 16:50:24 data pvestatd[3689]: status update time (95.173 seconds)
May 11 16:52:25 data pvestatd[3689]: status update time (120.610 seconds)
May 11 16:53:52 data pvestatd[3689]: status update time (87.096 seconds)
May 11 16:54:28 data pvestatd[3689]: status update time (5.400 seconds)
May 11 16:55:13 data pvestatd[3689]: status update time (31.367 seconds)
May 11 16:56:56 data pvestatd[3689]: status update time (102.953 seconds)
May 11 16:57:57 data pvestatd[3689]: status update time (61.175 seconds)
May 11 16:59:51 data pvestatd[3689]: status update time (113.563 seconds)
May 11 17:00:42 data pvestatd[3689]: status update time (51.185 seconds)
lines 42-85/85 (END)

Systemctl:
pvestatd.service - PVE Status Daemon
Loaded: loaded (/lib/systemd/system/pvestatd.service; enabled; vendor preset: enabled)
Active: active (running) since Thu 2023-05-11 16:08:12 CEST; 48min ago
Process: 3316 ExecStart=/usr/bin/pvestatd start (code=exited, status=0/SUCCESS)
Main PID: 3689 (pvestatd)
Tasks: 2 (limit: 149496)
Memory: 117.5M
CPU: 33.558s
CGroup: /system.slice/pvestatd.service
├─ 3689 pvestatd
└─2223547 udevadm settle --timeout=30

May 11 16:42:52 data pvestatd[3689]: status update time (91.114 seconds)
May 11 16:44:42 data pvestatd[3689]: status update time (109.726 seconds)
May 11 16:46:44 data pvestatd[3689]: status update time (122.202 seconds)
May 11 16:47:54 data pvestatd[3689]: status update time (69.700 seconds)
May 11 16:48:49 data pvestatd[3689]: status update time (55.387 seconds)
May 11 16:50:24 data pvestatd[3689]: status update time (95.173 seconds)
May 11 16:52:25 data pvestatd[3689]: status update time (120.610 seconds)
May 11 16:53:52 data pvestatd[3689]: status update time (87.096 seconds)
May 11 16:54:28 data pvestatd[3689]: status update time (5.400 seconds)a
May 11 16:55:13 data pvestatd[3689]: status update time (31.367 seconds)

● pveproxy.service - PVE API Proxy Server
Loaded: loaded (/lib/systemd/system/pveproxy.service; enabled; vendor preset: enabled)
Active: active (running) since Thu 2023-05-11 16:08:13 CEST; 48min ago
Process: 3921 ExecStartPre=/usr/bin/pvecm updatecerts --silent (code=exited, status=0/SUCCESS)
Process: 4046 ExecStart=/usr/bin/pveproxy start (code=exited, status=0/SUCCESS)
Main PID: 4405 (pveproxy)
Tasks: 4 (limit: 149496)
Memory: 240.0M
CPU: 12.089s
CGroup: /system.slice/pveproxy.service
├─ 4405 pveproxy
├─1082121 pveproxy worker
├─1456689 pveproxy worker
└─1800993 pveproxy worker

May 11 16:32:22 data pveproxy[4405]: starting 1 worker(s)
May 11 16:32:22 data pveproxy[4405]: worker 1082121 started
May 11 16:40:11 data pveproxy[4407]: worker exit
May 11 16:40:11 data pveproxy[4405]: worker 4407 finished
May 11 16:40:11 data pveproxy[4405]: starting 1 worker(s)
May 11 16:40:11 data pveproxy[4405]: worker 1456689 started
May 11 16:47:26 data pveproxy[4406]: worker exit
May 11 16:47:26 data pveproxy[4405]: worker 4406 finished
May 11 16:47:26 data pveproxy[4405]: starting 1 worker(s)
May 11 16:47:26 data pveproxy[4405]: worker 1800993 started
 
Da gibt es ein paar Fehler die lauten:
May 11 16:11:18 data pveproxy[4406]: proxy detected vanished client connection
Korrelieren die Zeiten in den Logeinträgen mit den Zeiten der fehlerhaften Verbindungen in der WebUI?
 
ja das passt ungefähr.
aber wie von Geisterhand geht es auf einmal wieder.
Was tagelang nicht lief, läuft wieder, wenn man sich einmal die logs anschaut?
Sehr merkwürdig.

Danke dir aber trotzdem erstmal für deine Hilfe.
 
ja das passt ungefähr.
aber wie von Geisterhand geht es auf einmal wieder.
Was tagelang nicht lief, läuft wieder, wenn man sich einmal die logs anschaut?
Sehr merkwürdig.

Danke dir aber trotzdem erstmal für deine Hilfe.
Schön wenn alles wieder passt! Vermutlich ein Verbindungsproblem zwischen Client und PVE Host, würde zumindest zu den Logs passen.
 
Ich muss leider hier nochmal aufmachen, denn das Problem ist leider nicht erledigt.
Das pvecm status bringt mir zwar keine Fehlermeldungen - auch wenn es immer recht lange läuft.
Beim Aufrufen von Storage-Dropdowns - z.b. beim Auswählen des Zielstorage beim Verschieben eines Images - bekomme ich aber wieder zuerst keine Reaktion und dann Fehler:
Fehler2.png

Fehler1.png
(Das tritt auch nicht immer auf - nur sporadisch - aber in letzter Zeit immer häufiger)


Beim Anzeigen des Status des Dienste bekomme ich wieder die altbekannten Meldungen:

proxy detected vanished client connection

Wieder genau dann, wenn ich in der WebGui darauf zugegriffen habe.
Wenn es ein Verbindungsproblem zwischen Client und PVE Host ist, wie kann ich das genauer untersuchen und was kann ich dagegen tun?

Und noch eine allgemeine Frage dazu: Oben hatte ich ja die Fehlermeldung bei pvecm status von wegen fehlerhafter corosync-config.
Vom Verständnis her: muss das corosync auch laufen, wenn der pve nicht in einem cluster läuft?
Wenn ich mir den Status vom corosync-dienst anschaue finde ich da nämlich auch einen Fehler:

Fehler4.png

Könnte das damit was tun tun haben?
 
So nach einem Reboot war plötzlich local-lvm nicht mehr verfügbar.
Nach einem lvconvert --repair scheint aber jetzt wieder alles ok zu sein.
Eventl. war das kaputte lv ja die Ursache.
 
Ich muss leider hier nochmal aufmachen, denn das Problem ist leider nicht erledigt.
Das pvecm status bringt mir zwar keine Fehlermeldungen - auch wenn es immer recht lange läuft.
Beim Aufrufen von Storage-Dropdowns - z.b. beim Auswählen des Zielstorage beim Verschieben eines Images - bekomme ich aber wieder zuerst keine Reaktion und dann Fehler:
View attachment 50927

View attachment 50926
(Das tritt auch nicht immer auf - nur sporadisch - aber in letzter Zeit immer häufiger)


Beim Anzeigen des Status des Dienste bekomme ich wieder die altbekannten Meldungen:

proxy detected vanished client connection

Wieder genau dann, wenn ich in der WebGui darauf zugegriffen habe.
Wenn es ein Verbindungsproblem zwischen Client und PVE Host ist, wie kann ich das genauer untersuchen und was kann ich dagegen tun?

Und noch eine allgemeine Frage dazu: Oben hatte ich ja die Fehlermeldung bei pvecm status von wegen fehlerhafter corosync-config.
Vom Verständnis her: muss das corosync auch laufen, wenn der pve nicht in einem cluster läuft?
Wenn ich mir den Status vom corosync-dienst anschaue finde ich da nämlich auch einen Fehler:

View attachment 50928

Könnte das damit was tun tun haben?
Hi,
nein corosync muss nicht laufen wenn das kein Cluster ist. Auch sagt der Dienst nur, dass die Bedingungen für das starten des Dienstes nicht erfüllt wurden, was ja stimmt. Also alles in Ordnung hier.

Die Fehlermeldung
proxy detected vanished client connection
deutet eher darauf hin, dass hier wieder die Netzwerkverbindung zwischen Client und PVE host unterbrochen wurde. Wie verbindest du dich mit dem Host? Eventuell eine schlechte W-Lan Verbindung? Ist der Host im lokalen Netz oder online bei einem Provider?

Check mal das journal generell um den Zeitpunkt herum, vielleicht gibt dies ja etwas mehr Aufschluss:
Bash:
journalctl --since <DATETIME> --until <DATETIME>
 
Die Fehlermeldung:

proxy detected vanished client connection
kam ja aus jornalctl (siehe auch Beitrag #3)
Mehr war da allerdings nicht zu sehen - alles andere sah völlig korrekt aus.

Die Netzverbindung läuft über Kabel - 2,5GBit/s. Steht im lokalen Netz.

Aber wie vorgestern geschrieben: nach einem lvconvert --repair gibt es keine Probleme mehr.
Trotzdem danke - auch für die Aufklärung über corosync.
 
kam ja aus jornalctl (siehe auch Beitrag #3)
Mehr war da allerdings nicht zu sehen - alles andere sah völlig korrekt aus.
Ja, allerdings war das damals noch nach service gefiltert und somit nicht der komplette output.

Aber wenn das Problem seit dem reparieren des LVM nicht mehr auftritt, kann dies sehr wohl als Verursacher nicht ausgeschlossen werden.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!