VMs beenden sich nach dem Aufwecken aus StandBy

Ingo S

Renowned Member
Oct 16, 2016
333
38
68
41
Moin zusammen

Ich habe ein paar neue VMs erstellt, auf denen Windows 10 läuft. Die QUEMU Guest Tools sind installiert und als Display wird Spice verwendet. Nun ist es so, das die Maschinen nach einer Weile in den Ruhezustand gehen (das muss ich noch abschalten). Aber mir ist dabei aufgefallen, das sich diese nicht wieder richtig aufwecken lassen.
Wenn man "Resume" klickt, scheint die Maschine zunächst aufzuwachen, sie reagiert aber nicht und das Spice-Fenster bleibt schwarz. Nach einer kurzen Zeit (ca. 30s) wird die Maschine dann in Proxmox als stopped geführt.

Im Journal des jeweiligen Host sieht das dann so aus:
Code:
May 11 08:03:13 vm-6 pvedaemon[3469934]: resume VM 2001: UPID:vm-6:0034F26E:40432980:609A1E21:qmresume:2001:root@pam:
May 11 08:03:13 vm-6 pvedaemon[3420712]: <root@pam> starting task UPID:vm-6:0034F26E:40432980:609A1E21:qmresume:2001:root@pam:
May 11 08:03:13 vm-6 pvedaemon[3420712]: <root@pam> end task UPID:vm-6:0034F26E:40432980:609A1E21:qmresume:2001:root@pam: OK
May 11 08:03:18 vm-6 pvedaemon[3469937]: resume VM 2000: UPID:vm-6:0034F271:40432B52:609A1E26:qmresume:2000:root@pam:
May 11 08:03:18 vm-6 pvedaemon[3452877]: <root@pam> starting task UPID:vm-6:0034F271:40432B52:609A1E26:qmresume:2000:root@pam:
May 11 08:03:18 vm-6 pvedaemon[3452877]: <root@pam> end task UPID:vm-6:0034F271:40432B52:609A1E26:qmresume:2000:root@pam: OK
May 11 08:03:53 vm-6 QEMU[3042256]: kvm: terminating on signal 15 from pid 3443380 (/usr/sbin/qmeventd)
May 11 08:03:54 vm-6 kernel: fwbr2001i0: port 2(tap2001i0) entered disabled state
May 11 08:03:54 vm-6 kernel: fwbr2001i0: port 1(fwln2001i0) entered disabled state
May 11 08:03:54 vm-6 kernel: vmbr0v103: port 4(fwpr2001p0) entered disabled state
May 11 08:03:54 vm-6 kernel: device fwln2001i0 left promiscuous mode
May 11 08:03:54 vm-6 kernel: fwbr2001i0: port 1(fwln2001i0) entered disabled state
May 11 08:03:54 vm-6 kernel: device fwpr2001p0 left promiscuous mode
May 11 08:03:54 vm-6 kernel: vmbr0v103: port 4(fwpr2001p0) entered disabled state
May 11 08:03:54 vm-6 systemd[1]: 2001.scope: Succeeded.
May 11 08:03:55 vm-6 qmeventd[3443379]: Starting cleanup for 2001
May 11 08:03:55 vm-6 qmeventd[3443379]: Finished cleanup for 2001
May 11 08:03:59 vm-6 zabbix_agentd[1319]: cannot parse list of active checks:
May 11 08:04:00 vm-6 systemd[1]: Starting Proxmox VE replication runner...
May 11 08:04:01 vm-6 systemd[1]: pvesr.service: Succeeded.
May 11 08:04:01 vm-6 systemd[1]: Started Proxmox VE replication runner.
May 11 08:04:09 vm-6 QEMU[3043058]: kvm: terminating on signal 15 from pid 3443380 (/usr/sbin/qmeventd)
May 11 08:04:10 vm-6 kernel: fwbr2000i0: port 2(tap2000i0) entered disabled state
May 11 08:04:10 vm-6 kernel: fwbr2000i0: port 1(fwln2000i0) entered disabled state
May 11 08:04:10 vm-6 kernel: vmbr0v103: port 6(fwpr2000p0) entered disabled state
May 11 08:04:10 vm-6 kernel: device fwln2000i0 left promiscuous mode
May 11 08:04:10 vm-6 kernel: fwbr2000i0: port 1(fwln2000i0) entered disabled state
May 11 08:04:10 vm-6 kernel: device fwpr2000p0 left promiscuous mode
May 11 08:04:10 vm-6 kernel: vmbr0v103: port 6(fwpr2000p0) entered disabled state
May 11 08:04:10 vm-6 pvestatd[1764]: VM 2000 qmp command failed - VM 2000 not running
May 11 08:04:10 vm-6 systemd[1]: 2000.scope: Succeeded.
May 11 08:04:11 vm-6 qmeventd[3443379]: Starting cleanup for 2000
May 11 08:04:11 vm-6 qmeventd[3443379]: Finished cleanup for 2000
May 11 08:05:00 vm-6 systemd[1]: Starting Proxmox VE replication runner...

Hat dazu jemand eine Idee? Mir fällt im Journal nur auf, das kvm durch Signal 15 terminiert wurde, aber eine Ursache kann ich nicht ausmachen.
 
wenn du einen node zum reproduzieren "freischaufeln" kannst, waere folgendes eine option:
  1. alle anderen VMs wegmigrieren
  2. die betreffende VM stoppen
  3. systemctl stop qmeventd
  4. qmeventd -f -v /var/run/qmeventd.sock
  5. betreffende VM starten, Problem reproduzieren
  6. Output von 4. hier posten
pveversion -v und VM config ist wie immer natuerlich auch interessant ;)
 
Hat doch heute schon geklappt. Sieht für mich auch sehr unverdächtig aus:
added new client, pid: 3652401
pid3652401: entering handle
pid3652401: read 123 bytes
pid3652401: got QMP handshake, assuming QEMU client
pid3652401: assigned VMID: 2001
pid3652401: entering handle
pid3652401: read 16 bytes
2001: QMP handshake complete
pid3652401: entering handle
pid3652401: read 110 bytes
2001: got QMP event: RTC_CHANGE
pid3652401: entering handle
pid3652401: read 110 bytes
2001: got QMP event: RTC_CHANGE
pid3652401: entering handle
pid3652401: read 174 bytes
2001: got QMP event: NIC_RX_FILTER_CHANGED
pid3652401: entering handle
pid3652401: read 238 bytes
2001: got QMP event: SPICE_CONNECTED
pid3652401: entering handle
pid3652401: read 335 bytes
2001: got QMP event: SPICE_INITIALIZED
pid3652401: entering handle
pid3652401: read 238 bytes
2001: got QMP event: SPICE_CONNECTED
pid3652401: entering handle
pid3652401: read 335 bytes
2001: got QMP event: SPICE_INITIALIZED
pid3652401: entering handle
pid3652401: read 238 bytes
2001: got QMP event: SPICE_CONNECTED
pid3652401: entering handle
pid3652401: read 238 bytes
2001: got QMP event: SPICE_CONNECTED
pid3652401: entering handle
pid3652401: read 335 bytes
2001: got QMP event: SPICE_INITIALIZED
pid3652401: entering handle
pid3652401: read 335 bytes
2001: got QMP event: SPICE_INITIALIZED
pid3652401: entering handle
pid3652401: read 112 bytes
2001: got QMP event: RTC_CHANGE
pid3652401: entering handle
pid3652401: read 110 bytes
2001: got QMP event: RTC_CHANGE
pid3652401: entering handle
pid3652401: read 84 bytes
2001: got QMP event: SUSPEND
pid3652401: entering handle
pid3652401: read 83 bytes
2001: got QMP event: WAKEUP
pid3652401: entering handle
pid3652401: read 138 bytes
2001: got QMP event: SHUTDOWN
2001: query-status
pid3652401: entering handle
pid3652401: read 81 bytes
2001: got QMP event: STOP
pid3652401: entering handle
pid3652401: read 75 bytes
2001: terminating client (pid 3652401)
pid3652401: entering handle
pid3652401: read 136 bytes
2001: got QMP event: SHUTDOWN
2001: event was after termination, ignoring
pid3652401: entering handle
pid3652401: got EOF
2001: executing cleanup (graceful: 1, guest: 1)
clearing forced cleanup backlog

proxmox-ve: 6.3-1 (running kernel: 5.4.78-2-pve)
pve-manager: 6.3-3 (running version: 6.3-3/eee5f901)
pve-kernel-5.4: 6.3-3
pve-kernel-helper: 6.3-3
pve-kernel-5.4.78-2-pve: 5.4.78-2
pve-kernel-5.4.34-1-pve: 5.4.34-2
ceph: 15.2.8-pve2
ceph-fuse: 15.2.8-pve2
corosync: 3.1.0-pve1
criu: 3.11-3
glusterfs-client: 5.5-3
ifupdown: 0.8.35+pve1
ksm-control-daemon: 1.3-1
libjs-extjs: 6.0.1-10
libknet1: 1.20-pve1
libproxmox-acme-perl: 1.0.7
libproxmox-backup-qemu0: 1.0.2-1
libpve-access-control: 6.1-3
libpve-apiclient-perl: 3.1-3
libpve-common-perl: 6.3-3
libpve-guest-common-perl: 3.1-4
libpve-http-server-perl: 3.1-1
libpve-storage-perl: 6.3-6
libqb0: 1.0.5-1
libspice-server1: 0.14.2-4~pve6+1
lvm2: 2.03.02-pve4
lxc-pve: 4.0.6-2
lxcfs: 4.0.6-pve1
novnc-pve: 1.1.0-1
proxmox-backup-client: 1.0.8-1
proxmox-mini-journalreader: 1.1-1
proxmox-widget-toolkit: 2.4-5
pve-cluster: 6.2-1
pve-container: 3.3-3
pve-docs: 6.3-1
pve-edk2-firmware: 2.20200531-1
pve-firewall: 4.1-3
pve-firmware: 3.1-3
pve-ha-manager: 3.1-1
pve-i18n: 2.2-2
pve-qemu-kvm: 5.1.0-8
pve-xtermjs: 4.7.0-3
qemu-server: 6.3-5
smartmontools: 7.1-pve2
spiceterm: 3.1-1
vncterm: 1.6-2
zfsutils-linux: 0.8.5-pve1

root@vm-6:~# cat /etc/pve/qemu-server/2001.conf
agent: 1
bios: ovmf
boot: order=scsi0
cores: 4
efidisk0: SSD_Storage:vm-2001-disk-1,size=1M
ide2: none,media=cdrom
memory: 8192
name: RPA-W.Scherf
net0: virtio=9E:83:F3:7C:21:4B,bridge=vmbr0,firewall=1,tag=103
numa: 0
ostype: win10
scsi0: SSD_Storage:vm-2001-disk-0,discard=on,size=80G,ssd=1
scsihw: virtio-scsi-pci
smbios1: uuid=53cda13c-ea66-42a6-85c8-4a9a11993389
sockets: 1
vga: qxl
vmgenid: d9b208bc-c58e-4488-9470-32ce51291e20
 
ja, das schaut so aus als wuerde nach dem wakeup einfach die VM von sich aus runterfahren.. mal schauen ob sich das nachbauen laesst..
 
laesst sich hier nicht reproduzieren.. als naechstes wuerde ich mal ein upgrade auf PVE 6.4 (mit Qemu 5.2) vorschlagen - falls das problem dann nopch auftritt bitte mit genauen details zum Gast-Setup nochmal melden!
 
Hmm okay.
Wir hatten sowieso vor, demnächst bei Gelegenheit das Upgrade auf 6.4 zu machen.
In dem announcement habe ich jetzt keinen Hinweis auf eine spezielle Anleitung für das Upgrade gefunden. Ich vermute mal, da gibt es nichts besonderes zu beachten udn das läuft so wie bei den anderen Upgrades auch?
 
ja - die befehle aus dem admin guide oder das eingebaute aktualisierungs feature in der GUI dienen genauso zum upgrade von 6.3 auf aktuelles 6.4 wie vor dem point release von 6.3 auf aktuelles 6.3 :) nur bei major release upgrades (6.x -> 7.y) gibt es manchmal besonderheiten zu beachten die extra dokumentiert sind.
 
koenntest du noch details zur verwendeten windows und qemu guest agent version posten?
 
bis jetzt konnten wir das problem nicht reproduzieren.. eventuell hilft ein update der virtio treiber?
 
Auf der Maschine läuft bereits der aktuelle stabile Treiber, Version 0.1.185.
Es spielt auch keine ROlle, ob ich die Maschine manuell in den Energie-Sparen Modus (übers Startmenü) schalte, oder ob die Maschine automatisch z.B. nach 15min in den Standby geht.
Ich weiß, dass das früher mal funktioniert hat, das ist so etwa ein halbes bis ein Jahr her.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!