Nach Proxmox Update läuft Homeassistant nicht mehr

markyman

Member
Mar 19, 2023
94
2
8
Guten Morgen,

tja was soll ich sagen. Die erste " Amtshandlung" nachdem ich nun dabei bin langsam von meinem NAS weg zu einem Mini PC mit Proxmox und diversen VM zu wechseln etc. wurde der Sache nun recht schnell einen Dämpfer verpasst.
Nachdem ich erfolgreich Homeassistant in einer VM erstellt und laufen hatte, wollte ich die Backup funktion mal ausprobieren um sicher zu sein das es funzt. Habe eine NFS Freigabe von meinem NAS in Proxmox für ein Backup eingebunden, das Backup hat er auch gemacht ( Dump vorhanden ). Nun habe ich ein Update von Proxmox gemacht, in der geöffneten Konsole stand nach dem Update das wohl auch ein Kernel ein Update bekommen hat und bitte Neugestartet werden soll. Ok, in der Konsole Reboot und fertig. Nach dem Start komme ich jedoch nicht mehr auf die HA Weboberfläche, Neustartet von Proxmox oder VM bringt keine Abhilfe. Dann habe ich das Backup " zurückgespielt" und auch damit keinen Erfolg. Komischerweise habe ich nun 2 Homeassistant VM´s, hä?? Im Task von Proxmox sehe ich folgende Meldungen:
VM 101: Shutdoen: TASK ERROR: can't lock file '/var/lock/qemu-server/lock-101.conf' - got timeout
VM 101 Reboot: TASK ERROR: VM quit/powerdown failed

Ich weis ich bin neu, und ich weis auch das ich bzgl. Proxmox / Linux etc. völliger Noob bin, aber es kann doch nicht sein das ich ein Programm nutze das bei der ersten " Nutzung " sofort Probleme macht. Wie soll das nur weiter gehen wenn man mal zig VM´s und / oder LXc Container hat, dann hat man ja mehr mit Problemen als mit dem Nutzen des Systems zu tun.

Danke vorab für eure Hilfe!!!

Gruß
Mark
 
Last edited:
Hallo,
damit wir helfen können brauchen wir etwas mehr Infos zum derzeitigen Zustand deines Systems. Bitte poste mal die pveversion -v, die qm config <VMID> sowie die Netzwerk Konfiguration cat /etc/network/interfaces, alles in code tags. Auch der derzeitige Status deiner VMs kann eventuell helfen qm status <VMID> --verbose

Dann habe ich das Backup " zurückgespielt" und auch damit keinen Erfolg. Komischerweise habe ich nun 2 Homeassistant VM´s, hä??
Du hast vermutlich beim Restore vom Backup eine neue VM erstellt. Es gibt die Möglichkeit die bestehende VM zu restoren oder aus dem Backup eine neue VM zu erzeugen.
VM 101: Shutdoen: TASK ERROR: can't lock file '/var/lock/qemu-server/lock-101.conf' - got timeout
VM 101 Reboot: TASK ERROR: VM quit/powerdown failed
Diese VM ist zur Zeit `locked,` vermutlich weil ein vorheriger task noch nicht abgeschlossen wurde und du den reboot der VM versucht hast.
Nach dem Start komme ich jedoch nicht mehr auf die HA Weboberfläche
Dies hat nicht zwingend etwas mit dem System Upgrade zu tun. Ist die IP Adresse statisch vergeben, ist der home assistant dienst in der VM aktiv und reagiert z.B. auf Anfragen via curl? Ist die Firewall aktiviert worden, hast sich an der Netzwerk Konfiguration etwas geändert?
 
Hi,

Du hast vermutlich beim Restore vom Backup eine neue VM erstellt. Es gibt die Möglichkeit die bestehende VM zu restoren oder aus dem Backup eine neue VM zu erzeugen
Ich habe ein Backup " All " gemacht. Danach hatte ich links im Fenster einen weiteren Eintrag " Backup ( pve ) " und dieses Backup ca. 3.2 Gb dann hergestellt. Ich dachte halt wenn ich ein Backup von allem mache, wird auch alles wieder uín dem Ursprungszustand hergestellt. warum da nun eine neue VM erstellt wurde weis ich nicht.

Diese VM ist zur Zeit `locked,` vermutlich weil ein vorheriger task noch nicht abgeschlossen wurde und du den reboot der VM versucht hast.
Hm, in dem Temrinal Fenster von dem Update stand ich solle Neustarten. dies getan und die Fehlermeldungen waren da.

Dies hat nicht zwingend etwas mit dem System Upgrade zu tun. Ist die IP Adresse statisch vergeben, ist der home assistant dienst in der VM aktiv und reagiert z.B. auf Anfragen via curl? Ist die Firewall aktiviert worden, hast sich an der Netzwerk Konfiguration etwas geändert?
Wo kann ich sehen ob die IP statisch ist?? In meinem Router kann ich ja Einstellen das gewisse Geräte die gleiche IP bekommen, in Proxmox wüsste ich nicht wo ich die IP Einstellung finden kann. Im Router ist die letzte IP ( 55 ) nicht mehr vorhanden, ein neuer Eintrag der HA IP ist auch nicht zu finden. Proxmox natürlich schon, sonst würde ich ja auch hier nicht über die WebUi kommen. Die VM ist für mich Aktiv, die CPU und der Speicher haben eine Last. An der Netzwerkconfiguration habe ich nichts geändert, lediglich ein Update durchgeführt.

Hier die Code Tags:
Code:
Linux pve 5.15.102-1-pve #1 SMP PVE 5.15.102-1 (2023-03-14T13:48Z) x86_64

The programs included with the Debian GNU/Linux system are free software;
the exact distribution terms for each program are described in the
individual files in /usr/share/doc/*/copyright.

Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
permitted by applicable law.
Last login: Mon Mar 20 12:59:37 CET 2023 on pts/0
root@pve:~# pveversion -v
proxmox-ve: 7.3-1 (running kernel: 5.15.102-1-pve)
pve-manager: 7.3-6 (running version: 7.3-6/723bb6ec)
pve-kernel-helper: 7.3-8
pve-kernel-5.15: 7.3-3
pve-kernel-5.15.102-1-pve: 5.15.102-1
pve-kernel-5.15.74-1-pve: 5.15.74-1
ceph-fuse: 15.2.17-pve1
corosync: 3.1.7-pve1
criu: 3.15-1+pve-1
glusterfs-client: 9.2-1
ifupdown2: 3.1.0-1+pmx3
ksm-control-daemon: 1.4-1
libjs-extjs: 7.0.0-1
libknet1: 1.24-pve2
libproxmox-acme-perl: 1.4.4
libproxmox-backup-qemu0: 1.3.1-1
libpve-access-control: 7.3-2
libpve-apiclient-perl: 3.2-1
libpve-common-perl: 7.3-2
libpve-guest-common-perl: 4.2-3
libpve-http-server-perl: 4.1-6
libpve-storage-perl: 7.3-2
libspice-server1: 0.14.3-2.1
lvm2: 2.03.11-2.1
lxc-pve: 5.0.2-2
lxcfs: 5.0.3-pve1
novnc-pve: 1.4.0-1
proxmox-backup-client: 2.3.3-1
proxmox-backup-file-restore: 2.3.3-1
proxmox-mail-forward: 0.1.1-1
proxmox-mini-journalreader: 1.3-1
proxmox-widget-toolkit: 3.5.5
pve-cluster: 7.3-2
pve-container: 4.4-2
pve-docs: 7.3-1
pve-edk2-firmware: 3.20221111-1
pve-firewall: 4.2-7
pve-firmware: 3.6-4
pve-ha-manager: 3.5.1
pve-i18n: 2.8-3
pve-qemu-kvm: 7.2.0-8
pve-xtermjs: 4.16.0-1
qemu-server: 7.3-4
smartmontools: 7.2-pve3
spiceterm: 3.2-2
swtpm: 0.8.0~bpo11+3
vncterm: 1.7-1
zfsutils-linux: 2.1.9-pve1

Code:
root@pve:~# qm config 101
agent: 1
bios: ovmf
boot: order=scsi0;ide2;net0
cores: 4
efidisk0: local-lvm:vm-101-disk-0,efitype=4m,pre-enrolled-keys=1,size=4M
ide2: none,media=cdrom
memory: 8192
meta: creation-qemu=7.1.0,ctime=1678988146
name: homeassistant
net0: virtio=6E:2A:57:F4:EA:1E,bridge=vmbr0,firewall=1
numa: 0
onboot: 1
ostype: l26
scsi0: local-lvm:vm-101-disk-1,iothread=1,size=32G
scsihw: virtio-scsi-single
smbios1: uuid=4a764293-23d2-40c9-9350-e033b138d99e
sockets: 1
usb0: host=1-4
vmgenid: 2966962b-355e-4503-8d11-621261c3135f

Code:
root@pve:~# cat /etc/network/interfaces
auto lo
iface lo inet loopback

iface enp0s31f6 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.178.54/24
        gateway 192.168.178.1
        bridge-ports enp0s31f6
        bridge-stp off
        bridge-fd 0
root@pve:~#
Code:
root@pve:~# qm status 101 --verbose
balloon: 8589934592
ballooninfo:
        actual: 8589934592
        max_mem: 8589934592
blockstat:
        efidisk0:
                account_failed: 1
                account_invalid: 1
                failed_flush_operations: 0
                failed_rd_operations: 0
                failed_unmap_operations: 0
                failed_wr_operations: 0
                flush_operations: 0
                flush_total_time_ns: 0
                invalid_flush_operations: 0
                invalid_rd_operations: 0
                invalid_unmap_operations: 0
                invalid_wr_operations: 0
                rd_bytes: 0
                rd_merged: 0
                rd_operations: 0
                rd_total_time_ns: 0
                timed_stats:
                unmap_bytes: 0
                unmap_merged: 0
                unmap_operations: 0
                unmap_total_time_ns: 0
                wr_bytes: 0
                wr_highest_offset: 48640
                wr_merged: 0
                wr_operations: 0
                wr_total_time_ns: 0
        ide2:
                account_failed: 1
                account_invalid: 1
                failed_flush_operations: 0
                failed_rd_operations: 0
                failed_unmap_operations: 0
                failed_wr_operations: 0
                flush_operations: 0
                flush_total_time_ns: 0
                invalid_flush_operations: 0
                invalid_rd_operations: 0
                invalid_unmap_operations: 0
                invalid_wr_operations: 0
                rd_bytes: 0
                rd_merged: 0
                rd_operations: 0
                rd_total_time_ns: 0
                timed_stats:
                unmap_bytes: 0
                unmap_merged: 0
                unmap_operations: 0
                unmap_total_time_ns: 0
                wr_bytes: 0
                wr_highest_offset: 0
                wr_merged: 0
                wr_operations: 0
                wr_total_time_ns: 0
        pflash0:
                account_failed: 1
                account_invalid: 1
                failed_flush_operations: 0
                failed_rd_operations: 0
                failed_unmap_operations: 0
                failed_wr_operations: 0
                flush_operations: 0
                flush_total_time_ns: 0
                invalid_flush_operations: 0
                invalid_rd_operations: 0
                invalid_unmap_operations: 0
                invalid_wr_operations: 0
                rd_bytes: 0
                rd_merged: 0
                rd_operations: 0
                rd_total_time_ns: 0
                timed_stats:
                unmap_bytes: 0
                unmap_merged: 0
                unmap_operations: 0
                unmap_total_time_ns: 0
                wr_bytes: 0
                wr_highest_offset: 0
                wr_merged: 0
                wr_operations: 0
                wr_total_time_ns: 0
        scsi0:
                account_failed: 1
                account_invalid: 1
                failed_flush_operations: 0
                failed_rd_operations: 0
                failed_unmap_operations: 0
                failed_wr_operations: 0
                flush_operations: 0
                flush_total_time_ns: 0
                idle_time_ns: 42678639196144
                invalid_flush_operations: 0
                invalid_rd_operations: 0
                invalid_unmap_operations: 0
                invalid_wr_operations: 0
                rd_bytes: 918016
                rd_merged: 0
                rd_operations: 94
                rd_total_time_ns: 8834611
                timed_stats:
                unmap_bytes: 0
                unmap_merged: 0
                unmap_operations: 0
                unmap_total_time_ns: 0
                wr_bytes: 0
                wr_highest_offset: 0
                wr_merged: 0
                wr_operations: 0
                wr_total_time_ns: 0
cpus: 4
disk: 0
diskread: 918016
diskwrite: 0
maxdisk: 34359738368
maxmem: 8589934592
mem: 99202738
name: homeassistant
netin: 11637971
netout: 3396
nics:
        tap101i0:
                netin: 11637971
                netout: 3396
pid: 1012
proxmox-support:
        backup-max-workers: 1
        pbs-dirty-bitmap: 1
        pbs-dirty-bitmap-migration: 1
        pbs-dirty-bitmap-savevm: 1
        pbs-library-version: 1.3.1 (4d450bb294cac5316d2f23bf087c4b02c0543d79)
        pbs-masterkey: 1
        query-bitmap-info: 1
qmpstatus: running
running-machine: pc-i440fx-7.2+pve0
running-qemu: 7.2.0
status: running
uptime: 42685
vmid: 101
 
Wo kann ich sehen ob die IP statisch ist?? In meinem Router kann ich ja Einstellen das gewisse Geräte die gleiche IP bekommen, in Proxmox wüsste ich nicht wo ich die IP Einstellung finden kann.
Okay, schaut so aus als sei die VM gestartet. Die IP Konfiguration erfolgt für VMs nicht auf PVE Seite (mit Ausnahme von cloud-init), d.h. dies passiert in deiner Home Assistant VM. Versuch mal die noVNC console der VM zu öffnen und gib dort ein ip addr ein und poste den output hier. Das sollte dir den aktuellen Status der NICs in der VM geben.

Nachdem du statische IPs verwendest, bitte stell auf Seiten deines Routers/DHCP Servers sicher, dass dort keine dieser statischen IPs doppelt vergeben werden, dies kann zu Netzwerkproblemen führen.
 
Oh, du bist da in einer EFI shell gelandet, d.h. dein Home Asistant OS wurde nicht gebootet.

bios: ovmf
running-machine: pc-i440fx-7.2+pve0
Hast du den machine type verändert? Ist dies die VM aus dem Backup oder die Originale? Versuch mal die VM zu stoppen und dann das Bios auf Default (SeaBIOS) zu setzten VM > Hardware > Bios, dann die VM neu zu starten und check den Console output.
 
Hi,

erst nochmal: Danke für deine Hilfe!!!

Hast du den machine type verändert? Ist dies die VM aus dem Backup oder die Originale?
Ähm, nein..wie gesagt Backup ALL gemacht, dann Update...und es ging mit den Fehlern los....Backup zurück, 1 VM mehr ( vorher hatte ich eine VM mit HA Nr. 101 ) nach Backup Restore hatte ich 2 ( 100 + 101 ).
Versucht zu Booten, passiert aber nichts.

Ist dies die VM aus dem Backup oder die Originale
Langsam bin ich verwirrt, wenn ich ein Backup restore habe ich doch nur welche vom Backup..oder?? Aber ich denke du meinst, ob es die " Neue 100" ist oder die "Alte 101" dann das zweite, die 101 die ich vorher auch hatte.
 
Last edited:
Hi,

erst nochmal: Danke für deine Hilfe!!!


Ähm, nein..wie gesagt Backup ALL gemacht, dann Update...und es ging mit den Fehlern los....Backup zurück, 1 VM mehr ( vorher hatte ich eine VM mit HA Nr. 101 ) nach Backup Restore hatte ich 2 ( 100 + 101 ).

Versucht zu Booten, passiert aber nichts.


Langsam bin ich verwirrt, wenn ich ein Backup restore habe ich doch nur welche vom Backup..oder?? Aber ich denke du meinst, ob es die " Neue 100" ist oder die "Alte 101" dann das zweite, die 101 die ich vorher auch hatte.
Okay, also VMID=100 ist die VM welche aus dem Backup restore kreiert wurde und VMID=101 ist die "Originale", von welcher das Backup ursprünglich erstellt wurde, richtig?

Was ist der status der VM 100? Wurde diese gestartet oder ist diese gestoppt? Kannst du mal die qm config 100 posten?
 
Okay, also VMID=100 ist die VM welche aus dem Backup restore kreiert wurde und VMID=101 ist die "Originale", von welcher das Backup ursprünglich erstellt wurde, richtig?
Jep, richtig! wie gesagt, ich bin auf " Datacenter " und habe dort übe Backup eine neue Backup Regel erstellt und Backup ALL durchgeführt.

Was ist der status der VM 100? Wurde diese gestartet oder ist diese gestoppt?
Diese habe ich erstmal gestopp gehabt um irgendwelche Probleme auszuschließen weil 2 laufen. Habe sie aber auch mal aktiviert, habe auch dort mal das Bios auf Default SeaBIOS gestellt wie du vorhin auch bei der 101 gechrieben hast. Aber auch hier genau die gleiche Ausgabe aus der Console. Booting from Harddisk und sonst passiert nichts.

Code:
root@pve:~# qm config 100
agent: 1
boot: order=scsi0;ide2;net0
cores: 4
efidisk0: local-lvm:vm-100-disk-0,efitype=4m,pre-enrolled-keys=1,size=4M
ide2: none,media=cdrom
memory: 8192
meta: creation-qemu=7.1.0,ctime=1678988146
name: homeassistant
net0: virtio=6E:2A:57:F4:EA:1E,bridge=vmbr0,firewall=1
numa: 0
onboot: 1
ostype: l26
scsi0: local-lvm:vm-100-disk-1,iothread=1,size=32G
scsihw: virtio-scsi-single
smbios1: uuid=4a764293-23d2-40c9-9350-e033b138d99e
sockets: 1
usb0: host=1-4
vmgenid: 8f9768ff-d81f-4740-ba88-c2a9d5a431c5
 
Jep, richtig! wie gesagt, ich bin auf " Datacenter " und habe dort übe Backup eine neue Backup Regel erstellt und Backup ALL durchgeführt.


Diese habe ich erstmal gestopp gehabt um irgendwelche Probleme auszuschließen weil 2 laufen. Habe sie aber auch mal aktiviert, habe auch dort mal das Bios auf Default SeaBIOS gestellt wie du vorhin auch bei der 101 gechrieben hast. Aber auch hier genau die gleiche Ausgabe aus der Console. Booting from Harddisk und sonst passiert nichts.

Code:
root@pve:~# qm config 100
agent: 1
boot: order=scsi0;ide2;net0
cores: 4
efidisk0: local-lvm:vm-100-disk-0,efitype=4m,pre-enrolled-keys=1,size=4M
ide2: none,media=cdrom
memory: 8192
meta: creation-qemu=7.1.0,ctime=1678988146
name: homeassistant
net0: virtio=6E:2A:57:F4:EA:1E,bridge=vmbr0,firewall=1
numa: 0
onboot: 1
ostype: l26
scsi0: local-lvm:vm-100-disk-1,iothread=1,size=32G
scsihw: virtio-scsi-single
smbios1: uuid=4a764293-23d2-40c9-9350-e033b138d99e
sockets: 1
usb0: host=1-4
vmgenid: 8f9768ff-d81f-4740-ba88-c2a9d5a431c5
Okay,
was ich sehen wollte ist ob die VM mit OVMF oder SeaBios erstellt wurde. Also in diesem Falle das Bios wieder auf OVMF stellen und booten, mit offener Console. Dort ins Bootmenu (sofort nach start mittels ESC) und schauen ob die boot disk erkannt wurde(UEFI QEMU HARDDISK) und von dieser booten, eventuell auch vorher noch secureboot deaktivieren.
 
was ich sehen wollte ist ob die VM mit OVMF oder SeaBios erstellt wurde
Mit OVMF, habe auch wieder auf OVMF umgestellt.

Screenshot 2023-03-22 114117.jpg

Ich denke mal die BOOT Disk wurde erkannt.

SecureBoot ausgestellt, Continue und fertig.

Nun komme ich wieder in HA ins webui und ist erreichbar. Was zur Hölle war jetzt die Ursache??? Kann ich jetzt meine " alte " VM Nr. 101 nicht mehr verwenden?? Kann ich dann eine löschen??
Wie mache ich nun ein Backup von allem ohne diesen " Zirkus " machen zu müssen??
 
Mit OVMF, habe auch wieder auf OVMF umgestellt.

View attachment 48251

Ich denke mal die BOOT Disk wurde erkannt.

SecureBoot ausgestellt, Continue und fertig.

Nun komme ich wieder in HA ins webui und ist erreichbar. Was zur Hölle war jetzt die Ursache??? Kann ich jetzt meine " alte " VM Nr. 101 nicht mehr verwenden?? Kann ich dann eine löschen??
Wie mache ich nun ein Backup von allem ohne diesen " Zirkus " machen zu müssen??
Die alte VM kann gelöscht werden, ja... aber bitte teste mal einen reboot sowie einen shutdown/restart der VM und erstelle falls alles passt definitiv ein neues Backup der VM.
Meine Vermutung, secure boot hat dir einen Strich durch die Rechnung gemacht, kannst ja mal testen ob jetzt ein restore funktioniert. Dazu auf die
VM > Backup > Backup now und nachdem das Backup durch ist ein VM > Backup > <Backup File> > Restore. Hier wird auch die selbe VMID verwendet und nicht eine neue VM erstellt.
 
Hi,

also: Die " alte" VM101 lösche ich dann. Dann Reboot shutdown/restart der VM oder VM oder Proxmox? Das Problem fing ja mit dessen Update an. Und was den Test von Backup / Restore angeht: Mache ich jetzt das Backup nicht wie vorher: Datacenter / Backup / All?? Ich möchte halt mit diesem Backup ALLES sichern und wiederherstellen.
 
Dann Reboot shutdown/restart der VM oder VM oder Proxmox?
Ich meinte schon die VM... das Problem hier ist ja nicht der PVE host.
Datacenter / Backup / All??
Wie meinst du das? Unter Datacenter > Backup kann man globale Backup Jobs einrichten, welche dann zu bestimmten Zeiten Backups der VMs/CTs auf den jeweiligen Nodes machen. Unter VM > Backup machst du dies explizit für diese eine VM. Für den Backup/Restore test sollte dir die eine VM reichen.
 
Genau, ich habe einen globalen Backup Job für ALLES eingerichtet. Ich möchte halt nicht einzelne VM´s sichern sondern alles. Geht dann bei irgendeiner VM was schief kann ich dann das restore machen und ALLE ist wieder wie vorher. Das meinte ich
 
So,

bzgl Backup hätte ich da noch eine Frage: Ich habe ein Backup vorliegen, gesichert wurde ja wie schon geschrieben ALL. Wenn ich nun auf dem eltzten Backup gehe und Restore wähle mss ich dort eine VM Nummer angeben. Warum?? ICh denke mal wenn ich das mache legt der eine neue VM an und die alte bleibt auch bestehen oder??
Screenshot 2023-03-23 195749.jpg
 
Wenn du auf deiner VM auf Backup bist, sollte er immer die ID deiner VM vorauswählen und du kannst die nicht ändern.
Geht du über den Datastore gehst, kannst du eine beliebige ID angeben. Wenn die ID noch in Benutzung ist, funktioniert das nicht.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!