qmp command 'query-proxmox-support' failed

Klingt so. Falls das wie beim Übernehmen von RAM/vCPUs etc ist, dann reicht auch kein Neustart, sondern man muss die VM einmal richtig per Shutdown stoppen und dann erneut starten.
 
Das ist ja umständlichm da sind über 30 VMs drauf pro Host. Alle anhalten und neu starten, werden wir mal Nachts machen, hatten wir aber noch nie das es in Endlosschleife durchrennt dieser Fehler... Gibts da auch einen Workarround oder eine Verbesserung in zukünftigen Versionen, die die Endlosschleife in die Log verhindert?
Hängt der Fehler:
Aug 03 09:06:20 daedalus systemd-udevd[21978]: link_config: autonegotiation is unset or enabled, the speed and duplex are not writable.
Aug 03 09:06:20 daedalus systemd-udevd[21978]: Could not generate persistent MAC address for tap5143i0: No such file or directory
auch damit zusammen ?
 
Last edited:
Das ist ja umständlichm da sind über 30 VMs drauf pro Host. Alle anhalten und neu starten,
Ein reboot tuts, solange er von PVE Seite ausgelöst wird und nicht aus dem Gast selbst. Es gibt auch die Möglichkeit bulk-stop/-start zu verwenden, auf der node-übersicht rechts oben. Falls zwei nodes verfügbar sind, am besten einfach live-migrieren.

Gibts da auch einen Workarround oder eine Verbesserung in zukünftigen Versionen, die die Endlosschleife in die Log verhindert?
Es gab eine relativ lange periode zwischen "feature in QEMU ist verfügbar" und "feature wird von pvestatd benötigt", das Problem sollte also nur auftreten wenn man VMs schon über mehrere update-zyklen nicht mehr neu gestartet hat.

Hängt der Fehler:
Aug 03 09:06:20 daedalus systemd-udevd[21978]: link_config: autonegotiation is unset or enabled, the speed and duplex are not writable.
Aug 03 09:06:20 daedalus systemd-udevd[21978]: Could not generate persistent MAC address for tap5143i0: No such file or directory
auch damit zusammen ?
Die Warnung kenne ich nur im Zusammenhang mit neuen VM starts? Da ist das ganz normal, also kein Fehler - das setzen der MAC adresse übernimmt ja hier der PVE stack, darum beschwert sich udev.
 
Alles klar. Danke. Musste die VMs anhalten/Herunterfahren udn neu starten. Normaler Neustart half nicht, da kam die Meldung weiterhin, Habe es mal auf einem kleinen Node gerade getestet. Danke für die Hilfe!
PS: Ja wenn ein System läuft startet man es ja nicht neu ;)
 
Hallo,

bei mir tritt das angesprochene Problem nun auch in unregelmäßigen Abständen wiederkehrend auf.
Ein zeitlicher Zusammenhang mit Backups oder anderen größeren Dateioperationen knan ich ausschließen.

Fehlermeldung:
Nov 20 03:44:03 cattus pvestatd[1705]: VM 100 qmp command failed - VM 100 qmp command 'query-proxmox-support' failed - unable to connect to VM 100 qmp socket - timeout after 31 retries

Code:
pveversion -v
proxmox-ve: 7.1-1 (running kernel: 5.13.19-1-pve)
pve-manager: 7.1-5 (running version: 7.1-5/6fe299a0)
pve-kernel-5.13: 7.1-4
pve-kernel-helper: 7.1-4
pve-kernel-5.13.19-1-pve: 5.13.19-2
ceph-fuse: 14.2.21-1
corosync: 3.1.5-pve2
criu: 3.15-1+pve-1
glusterfs-client: 9.2-1
ifupdown: residual config
ifupdown2: 3.1.0-1+pmx3
libjs-extjs: 7.0.0-1
libknet1: 1.22-pve2
libproxmox-acme-perl: 1.4.0
libproxmox-backup-qemu0: 1.2.0-1
libpve-access-control: 7.1-2
libpve-apiclient-perl: 3.2-1
libpve-common-perl: 7.0-14
libpve-guest-common-perl: 4.0-3
libpve-http-server-perl: 4.0-3
libpve-storage-perl: 7.0-15
libspice-server1: 0.14.3-2.1
lvm2: 2.03.11-2.1
lxc-pve: 4.0.9-4
lxcfs: 4.0.8-pve2
novnc-pve: 1.2.0-3
proxmox-backup-client: 2.0.14-1
proxmox-backup-file-restore: 2.0.14-1
proxmox-mini-journalreader: 1.2-1
proxmox-widget-toolkit: 3.4-2
pve-cluster: 7.1-2
pve-container: 4.1-2
pve-docs: 7.1-2
pve-edk2-firmware: 3.20210831-2
pve-firewall: 4.2-5
pve-firmware: 3.3-3
pve-ha-manager: 3.3-1
pve-i18n: 2.6-1
pve-qemu-kvm: 6.1.0-2
pve-xtermjs: 4.12.0-1
qemu-server: 7.1-3
smartmontools: 7.2-1
spiceterm: 3.2-2
swtpm: 0.7.0~rc1+2
vncterm: 1.7-1
zfsutils-linux: 2.1.1-pve3

Die betreffenden VM habe ich über die Bulk-Jobs mittlerweile mehrfach hoch- und wieder heruntergefahren.

Eine Beobachtung konnte ich gerade eben noch machen:
Es scheint ein Zusammenhang zwischen Backupaufträgen und diesem Fehler zu bestehen.
Allerdings handelt es sich bei den Backups nicht um Proxmox-Backups, sondern um Datenbackups, die ich auf meiner über BFS angebundenen NAS ablege. Wenige Minuten nachdem diese Backupsaufträge gestartet sind, kommt es zu diesem Fehler auf einer anderen VM.
Die VM auf der der Backup-Auftrag gestartet wurde ich hiervon nicht betroffen. Allerdings ist es schwer vorhersagbar, welche VM duch den ausgelösten Backup-Auftrag einer anderen Vm einfriert.

Gibt es hierzu bereits einen "Workaround" oder einen "Fix"?
Besteht die Möglichkeit eine auf diese Weise eingefrorene VM automatisch neu zu starten?

Viele Grüße
 
Last edited:
Habe seit ca. den letzten Updates das selbe Problem. Immer zu unterschiedlichen Zeiten fällt eine VM aus und lässt sich nur noch über STOP/Start reaktivieren.

Code:
proxmox-ve: 7.1-1 (running kernel: 5.13.19-2-pve)
pve-manager: 7.1-8 (running version: 7.1-8/5b267f33)
pve-kernel-helper: 7.1-6
pve-kernel-5.13: 7.1-5
pve-kernel-5.11: 7.0-10
pve-kernel-5.13.19-2-pve: 5.13.19-4
pve-kernel-5.13.19-1-pve: 5.13.19-3
pve-kernel-5.11.22-7-pve: 5.11.22-12
ceph-fuse: 14.2.21-1
corosync: 3.1.5-pve2
criu: 3.15-1+pve-1
glusterfs-client: 9.2-1
ifupdown: 0.8.36+pve1
libjs-extjs: 7.0.0-1
libknet1: 1.22-pve2
libproxmox-acme-perl: 1.4.0
libproxmox-backup-qemu0: 1.2.0-1
libpve-access-control: 7.1-5
libpve-apiclient-perl: 3.2-1
libpve-common-perl: 7.0-14
libpve-guest-common-perl: 4.0-3
libpve-http-server-perl: 4.0-4
libpve-storage-perl: 7.0-15
libspice-server1: 0.14.3-2.1
lvm2: 2.03.11-2.1
lxc-pve: 4.0.11-1
lxcfs: 4.0.11-pve1
novnc-pve: 1.2.0-3
proxmox-backup-client: 2.1.2-1
proxmox-backup-file-restore: 2.1.2-1
proxmox-mini-journalreader: 1.3-1
proxmox-widget-toolkit: 3.4-4
pve-cluster: 7.1-2
pve-container: 4.1-3
pve-docs: 7.1-2
pve-edk2-firmware: 3.20210831-2
pve-firewall: 4.2-5
pve-firmware: 3.3-3
pve-ha-manager: 3.3-1
pve-i18n: 2.6-2
pve-qemu-kvm: 6.1.0-3
pve-xtermjs: 4.12.0-1
qemu-server: 7.1-4
smartmontools: 7.2-pve2
spiceterm: 3.2-2
swtpm: 0.7.0~rc1+2
vncterm: 1.7-1
zfsutils-linux: 2.1.1-pve3

Im Syslog steht folgendes:

Code:
Dec 14 16:37:13 ol-db pveproxy[1980]: starting 1 worker(s)
Dec 14 16:37:13 ol-db pveproxy[1980]: worker 3018166 started
Dec 14 16:39:14 ol-db audit[3092790]: AVC apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-100_</var/lib/lxc>" name="/run/systemd/unit-root/" pid=3092790 comm="(ionclean)" srcname="/" flags="rw, rbind"
Dec 14 16:39:14 ol-db kernel: audit: type=1400 audit(1639496354.611:412): apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-100_</var/lib/lxc>" name="/run/systemd/unit-root/" pid=3092790 comm="(ionclean)" srcname="/" flags="rw, rbind"
Dec 14 16:39:19 ol-db audit[3096005]: AVC apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-103_</var/lib/lxc>" name="/run/systemd/unit-root/" pid=3096005 comm="(ionclean)" srcname="/" flags="rw, rbind"
Dec 14 16:39:19 ol-db kernel: audit: type=1400 audit(1639496359.615:413): apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-103_</var/lib/lxc>" name="/run/systemd/unit-root/" pid=3096005 comm="(ionclean)" srcname="/" flags="rw, rbind"
Dec 14 16:47:10 ol-db pvedaemon[2297927]: <root@pam> successful auth for user 'root@pam'
Dec 14 16:56:15 ol-db pvedaemon[2706643]: worker exit
Dec 14 16:56:15 ol-db pvedaemon[1913]: worker 2706643 finished
Dec 14 16:56:15 ol-db pvedaemon[1913]: starting 1 worker(s)
Dec 14 16:56:15 ol-db pvedaemon[1913]: worker 3713877 started
Dec 14 16:59:19 ol-db pveproxy[2402830]: worker exit
Dec 14 16:59:19 ol-db pveproxy[1980]: worker 2402830 finished
Dec 14 16:59:19 ol-db pveproxy[1980]: starting 1 worker(s)
Dec 14 16:59:19 ol-db pveproxy[1980]: worker 3826239 started
Dec 14 17:03:10 ol-db pvedaemon[3713877]: <root@pam> successful auth for user 'root@pam'
Dec 14 17:04:16 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:16 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:16 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:16 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:17 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:17 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:17 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:17 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:17 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:17 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:17 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:18 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:18 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:18 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:18 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:18 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:04:18 ol-db minissdpd[1392]: 1 new devices added
Dec 14 17:09:14 ol-db audit[4189597]: AVC apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-100_</var/lib/lxc>" name="/run/systemd/unit-root/" pid=4189597 comm="(ionclean)" srcname="/" flags="rw, rbind"
Dec 14 17:09:14 ol-db kernel: audit: type=1400 audit(1639498154.614:414): apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-100_</var/lib/lxc>" name="/run/systemd/unit-root/" pid=4189597 comm="(ionclean)" srcname="/" flags="rw, rbind"
Dec 14 17:09:19 ol-db audit[4192793]: AVC apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-103_</var/lib/lxc>" name="/run/systemd/unit-root/" pid=4192793 comm="(ionclean)" srcname="/" flags="rw, rbind"
Dec 14 17:09:19 ol-db kernel: audit: type=1400 audit(1639498159.618:415): apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-103_</var/lib/lxc>" name="/run/systemd/unit-root/" pid=4192793 comm="(ionclean)" srcname="/" flags="rw, rbind"
Dec 14 17:10:40 ol-db smartd[1290]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 120 to 121
Dec 14 17:10:40 ol-db smartd[1290]: Device: /dev/sdb [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 121 to 122
Dec 14 17:15:58 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - got timeout
Dec 14 17:15:59 ol-db pvestatd[1881]: status update time (6.567 seconds)
Dec 14 17:16:08 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:16:08 ol-db pvestatd[1881]: status update time (6.627 seconds)
Dec 14 17:16:18 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:16:19 ol-db pvestatd[1881]: status update time (6.466 seconds)
Dec 14 17:16:28 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:16:29 ol-db pvestatd[1881]: status update time (6.636 seconds)
Dec 14 17:16:38 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:16:38 ol-db pvestatd[1881]: status update time (6.440 seconds)
Dec 14 17:16:48 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:16:48 ol-db pvestatd[1881]: status update time (6.454 seconds)
Dec 14 17:16:58 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:16:59 ol-db pvestatd[1881]: status update time (6.426 seconds)
Dec 14 17:17:01 ol-db CRON[280498]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Dec 14 17:17:01 ol-db CRON[280501]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Dec 14 17:17:01 ol-db CRON[280498]: pam_unix(cron:session): session closed for user root
Dec 14 17:17:08 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:17:08 ol-db pvestatd[1881]: status update time (6.461 seconds)
Dec 14 17:17:18 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:17:19 ol-db pvestatd[1881]: status update time (6.624 seconds)
Dec 14 17:17:28 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:17:28 ol-db pvestatd[1881]: status update time (6.432 seconds)
Dec 14 17:17:38 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:17:39 ol-db pvestatd[1881]: status update time (6.430 seconds)
Dec 14 17:17:48 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:17:48 ol-db pvestatd[1881]: status update time (6.466 seconds)
Dec 14 17:17:58 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:17:59 ol-db pvestatd[1881]: status update time (6.464 seconds)
Dec 14 17:18:08 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:18:08 ol-db pvestatd[1881]: status update time (6.405 seconds)
Dec 14 17:18:18 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:18:19 ol-db pvestatd[1881]: status update time (6.462 seconds)
Dec 14 17:18:28 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:18:28 ol-db pvestatd[1881]: status update time (6.411 seconds)
Dec 14 17:18:38 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:18:39 ol-db pvestatd[1881]: status update time (6.508 seconds)
Dec 14 17:18:48 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:18:49 ol-db pvestatd[1881]: status update time (7.014 seconds)
Dec 14 17:18:58 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:18:58 ol-db pvestatd[1881]: status update time (6.635 seconds)
Dec 14 17:19:08 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:19:09 ol-db pvestatd[1881]: status update time (6.424 seconds)
Dec 14 17:19:18 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:19:18 ol-db pvestatd[1881]: status update time (6.406 seconds)
Dec 14 17:19:28 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:19:29 ol-db pvestatd[1881]: status update time (6.704 seconds)
Dec 14 17:19:38 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:19:38 ol-db pvestatd[1881]: status update time (6.432 seconds)
Dec 14 17:19:45 ol-db pvedaemon[2564681]: <root@pam> successful auth for user 'root@pam'
Dec 14 17:19:48 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:19:49 ol-db pvestatd[1881]: status update time (6.438 seconds)
Dec 14 17:19:51 ol-db pvedaemon[386540]: starting vnc proxy UPID:ol-db:0005E5EC:0173A7B8:61B8C427:vncproxy:101:root@pam:
Dec 14 17:19:51 ol-db pvedaemon[3713877]: <root@pam> starting task UPID:ol-db:0005E5EC:0173A7B8:61B8C427:vncproxy:101:root@pam:
Dec 14 17:19:52 ol-db pvedaemon[2564681]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:19:54 ol-db qm[386568]: VM 101 qmp command failed - VM 101 qmp command 'set_password' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:19:54 ol-db pvedaemon[386540]: Failed to run vncproxy.
Dec 14 17:19:54 ol-db pvedaemon[3713877]: <root@pam> end task UPID:ol-db:0005E5EC:0173A7B8:61B8C427:vncproxy:101:root@pam: Failed to run vncproxy.
Dec 14 17:19:58 ol-db pvestatd[1881]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:19:58 ol-db pvestatd[1881]: status update time (6.436 seconds)
Dec 14 17:20:02 ol-db pvedaemon[393577]: stop VM 101: UPID:ol-db:00060169:0173AC29:61B8C432:qmstop:101:root@pam:
Dec 14 17:20:02 ol-db pvedaemon[2564681]: <root@pam> starting task UPID:ol-db:00060169:0173AC29:61B8C432:qmstop:101:root@pam:
Dec 14 17:20:04 ol-db pvedaemon[2564681]: <root@pam> starting task UPID:ol-db:000605B9:0173ACE7:61B8C434:vncproxy:100:root@pam:
Dec 14 17:20:04 ol-db pvedaemon[394681]: starting lxc termproxy UPID:ol-db:000605B9:0173ACE7:61B8C434:vncproxy:100:root@pam:
Dec 14 17:20:04 ol-db pvedaemon[3713877]: <root@pam> successful auth for user 'root@pam'
Dec 14 17:20:05 ol-db pvedaemon[393577]: VM 101 qmp command failed - VM 101 qmp command 'quit' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Dec 14 17:20:05 ol-db pvedaemon[393577]: VM quit/powerdown failed - terminating now with SIGTERM
Dec 14 17:20:06 ol-db pvedaemon[2564681]: <root@pam> end task UPID:ol-db:000605B9:0173ACE7:61B8C434:vncproxy:100:root@pam: OK
Dec 14 17:20:06 ol-db pvedaemon[396035]: starting lxc termproxy UPID:ol-db:00060B03:0173ADB6:61B8C436:vncproxy:102:root@pam:
Dec 14 17:20:06 ol-db pvedaemon[3713877]: <root@pam> starting task UPID:ol-db:00060B03:0173ADB6:61B8C436:vncproxy:102:root@pam:
Dec 14 17:20:06 ol-db pvedaemon[2297927]: <root@pam> successful auth for user 'root@pam'
Dec 14 17:20:08 ol-db pveproxy[2373950]: worker exit


Wäre für einen Tipp/Lösung dankbar, da auf der VM die Sophos Firewall läuft.
 
Hi, ich habe das Problem jetzt auch - nach dem Update auf 7.1.7 - schmiert mir ständig EINE Maschine ab - Win2012R2 - alle anderen Linuxe laufen ohne Probleme - selbst kurz nach einem Stop und dann Start - komme ich nicht mal in mehr zur Anmeldung - täglich ist die Maschine down
Code:
proxmox-ve: 7.1-1 (running kernel: 5.13.19-1-pve)
pve-manager: 7.1-7 (running version: 7.1-7/df5740ad)
pve-kernel-helper: 7.1-6
pve-kernel-5.13: 7.1-5
pve-kernel-5.11: 7.0-10
pve-kernel-5.13.19-2-pve: 5.13.19-4
pve-kernel-5.13.19-1-pve: 5.13.19-3
pve-kernel-5.11.22-7-pve: 5.11.22-12
pve-kernel-5.11.22-5-pve: 5.11.22-10
pve-kernel-4.13.13-2-pve: 4.13.13-33
ceph-fuse: 14.2.21-1
corosync: 3.1.5-pve2
criu: 3.15-1+pve-1
glusterfs-client: 9.2-1
ifupdown: 0.8.36+pve1
ksm-control-daemon: 1.4-1
libjs-extjs: 7.0.0-1
libknet1: 1.22-pve2
libproxmox-acme-perl: 1.4.0
libproxmox-backup-qemu0: 1.2.0-1
libpve-access-control: 7.1-5
libpve-apiclient-perl: 3.2-1
libpve-common-perl: 7.0-14
libpve-guest-common-perl: 4.0-3
libpve-http-server-perl: 4.0-4
libpve-storage-perl: 7.0-15
libqb0: 1.0.5-1
libspice-server1: 0.14.3-2.1
lvm2: 2.03.11-2.1
lxc-pve: 4.0.9-4
lxcfs: 4.0.8-pve2
novnc-pve: 1.2.0-3
proxmox-backup-client: 2.1.2-1
proxmox-backup-file-restore: 2.1.2-1
proxmox-mini-journalreader: 1.3-1
proxmox-widget-toolkit: 3.4-4
pve-cluster: 7.1-2
pve-container: 4.1-2
pve-docs: 7.1-2
pve-edk2-firmware: 3.20210831-2
pve-firewall: 4.2-5
pve-firmware: 3.3-3
pve-ha-manager: 3.3-1
pve-i18n: 2.6-2
pve-qemu-kvm: 6.1.0-3
pve-xtermjs: 4.12.0-1
qemu-server: 7.1-4
smartmontools: 7.2-pve2
spiceterm: 3.2-2
swtpm: 0.7.0~rc1+2
vncterm: 1.7-1
zfsutils-linux: 2.1.1-pve3
 
Hi,

@Feurenatter
@GMT
@foxpalace

haben die problematischen VMs eine SATA Disk mit Async IO auf io_uring gesetzt (Disk auswählen Edit > Advanced)? Falls ja, als Workaround versuchen das auf native umzustellen. Alternativ, oder falls nein, auf den 5.15 Kernel upgraden.
 
Danke. Habe es umgestellt und sage Bescheid, egal ob es hilft oder auch nicht! ;-)
 
Frohes Neues,

ich weiß dieser Thread ist jetzt schon ein Jahr alt, aber ich habe den gleichen Fehler. Meine Instanz läuft auf einen Hardware SSD-RAID (kein ZFS) und ich nutze fast nur LXCs, nur zwei VMs (pfSense und ein Fedora Client). Heute morgen hat sich die pfSense pünktlich zum monatlichen STOP-Backup verabschiedet mit:

Jan 1 01:02:41 root1543 pvestatd[1214]: VM 100 qmp command failed - VM 100 qmp command 'query-proxmox-support' failed - got timeout

Und das ganz oft. Ich habe heute die STOP-Backup-Methode manuell versucht und alles ist gelungen, demnach nicht reproduzierbar. Beim manuellen Test war die VM nur ca. eine Minute nicht erreichbar.

Mir fällt auch auf, dass der `pve-daily-update.service` heute morgen zum Tatzeitpunkt durchlief. Als letzte Nachricht bezügl. VM 100 kam dann noch

Code:
Jan  1 01:23:10 root1543 pvescheduler[2855993]: VM 100 qmp command failed - VM 100 qmp command 'cont' failed - unable to connect to VM 100 qmp socket - timeout after 449 retries

Bei der zweiten VM lief dann alles sauber durch, und den LXCs dann auch.

Meine VM 100 pfSense war seitdem nicht erreichbar, was wirklich ein Problem für mich darstellt. Was kann ich an dieser Stelle tun um der Sache auf dem Grund zu gehen?

EDIT: Jemand hat hier empfohlen DefaultLimitNOFILE in der system.conf von systemd hochzusetzen: https://forum.proxmox.com/threads/v...ery-proxmox-support-failed.90160/#post-427510

Könnte dies wirklich helfen?
 
Last edited:
Status Update: Problem ist nicht mehr aufgetreten, ich glaube mein Lösungsansatz funktioniert. Puh.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!