Ha funktioniert nicht

achim22

Renowned Member
May 21, 2015
419
5
83
59
Dortmund
Hallo,
ich habe 3 Knoten wovon einer ein Debian mit quorum ist. Die VM 101 liegt auf prox2. Wenn der Knoten ausfällt landet die VM zwar auf prox1 wird aber nicht gestartet,
da wohl die disk-0 nicht gefunden wurde. Auch taucht diese nicht auf, per zfs list auf prox1.

Was mache ich falsch ?

VG

Code:
J
Jun 08 17:08:09 prox1 pve-ha-lrm[3302017]: Task 'UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam:' still active, waiting
Jun 08 17:08:14 prox1 pve-ha-lrm[3302017]: Task 'UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam:' still active, waiting
Jun 08 17:08:19 prox1 pve-ha-lrm[3302017]: Task 'UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam:' still active, waiting
Jun 08 17:08:24 prox1 pve-ha-lrm[3302017]: Task 'UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam:' still active, waiting
Jun 08 17:08:29 prox1 pve-ha-lrm[3302017]: Task 'UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam:' still active, waiting
Jun 08 17:08:34 prox1 pve-ha-lrm[3302017]: Task 'UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam:' still active, waiting
Jun 08 17:08:39 prox1 pve-ha-lrm[3302017]: Task 'UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam:' still active, waiting
Jun 08 17:08:44 prox1 pve-ha-lrm[3302017]: Task 'UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam:' still active, waiting
Jun 08 17:08:49 prox1 pve-ha-lrm[3302017]: Task 'UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam:' still active, waiting
Jun 08 17:08:54 prox1 pve-ha-lrm[3302017]: Task 'UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam:' still active, waiting
Jun 08 17:08:59 prox1 pve-ha-lrm[3302021]: timeout: no zvol device link for 'vm-101-disk-0' found after 300 sec found.
Jun 08 17:08:59 prox1 pve-ha-lrm[3302017]: <root@pam> end task UPID:prox1:00326285:00252A78:62A0BA5F:qmstart:101:root@pam: timeout: no zvol device link for 'vm-101-disk-0' found after 300 sec found.
Jun 08 17:08:59 prox1 pve-ha-lrm[3302017]: unable to start service vm:101
Jun 08 17:09:00 prox1 pve-ha-lrm[952372]: restart policy: retry number 1 for service 'vm:101'
Jun 08 17:09:10 prox1 pve-ha-lrm[3325429]: starting service vm:101
 

Attachments

  • Screenshot 2022-06-08 170446.png
    Screenshot 2022-06-08 170446.png
    27.6 KB · Views: 13
  • Screenshot 2022-06-08 170128.png
    Screenshot 2022-06-08 170128.png
    23.7 KB · Views: 13
  • Screenshot 2022-06-08 170058.png
    Screenshot 2022-06-08 170058.png
    23.9 KB · Views: 13
  • Screenshot 2022-06-08 171320.png
    Screenshot 2022-06-08 171320.png
    31 KB · Views: 13
  • Screenshot 2022-06-08 171400.png
    Screenshot 2022-06-08 171400.png
    12.2 KB · Views: 13
Wenn die Disk nicht auf der anderen Node ist, muss es ja ein Problem bei/mit der Replication geben (den entsprechenden Replication Task(-Log) checken) oder die Disk ist von der Replication ausgeschlossen (Disk in den VM-Hardware-Einstellungen checken).
 
  • Like
Reactions: fiona
Guten Morgen, bei den Disk ist alles okay. Habe den Fehler gefunden.

Code:
task started by HA resource agent
2022-06-09 09:38:28 starting migration of VM 101 to node 'prox2' (194.45.36.125)
2022-06-09 09:38:28 found local disk 'local-zfs:vm-101-disk-0' (in current VM config)
2022-06-09 09:38:28 copying local disk images
Use of uninitialized value $target_storeid in string eq at /usr/share/perl5/PVE/Storage.pm line 775.
Use of uninitialized value $targetsid in concatenation (.) or string at /usr/share/perl5/PVE/QemuMigrate.pm line 565.
2022-06-09 09:38:28 ERROR: storage migration for 'local-zfs:vm-101-disk-0' to storage '' failed - no storage ID specified
2022-06-09 09:38:28 aborting phase 1 - cleanup resources
2022-06-09 09:38:28 ERROR: migration aborted (duration 00:00:00): storage migration for 'local-zfs:vm-101-disk-0' to storage '' failed - no storage ID specified
TASK ERROR: migration aborted
 
Hallo,
Guten Morgen, bei den Disk ist alles okay. Habe den Fehler gefunden.


Code:
task started by HA resource agent
2022-06-09 09:38:28 starting migration of VM 101 to node 'prox2' (194.45.36.125)
2022-06-09 09:38:28 found local disk 'local-zfs:vm-101-disk-0' (in current VM config)
2022-06-09 09:38:28 copying local disk images
Use of uninitialized value $target_storeid in string eq at /usr/share/perl5/PVE/Storage.pm line 775.
Use of uninitialized value $targetsid in concatenation (.) or string at /usr/share/perl5/PVE/QemuMigrate.pm line 565.
2022-06-09 09:38:28 ERROR: storage migration for 'local-zfs:vm-101-disk-0' to storage '' failed - no storage ID specified
2022-06-09 09:38:28 aborting phase 1 - cleanup resources
2022-06-09 09:38:28 ERROR: migration aborted (duration 00:00:00): storage migration for 'local-zfs:vm-101-disk-0' to storage '' failed - no storage ID specified
TASK ERROR: migration aborted
Falls die VM-Konfiguration auf prox1 ist und die Disk auf prox2, am Besten manuell die Konfigurationsdatei von /etc/pve/nodes/prox1/qemu-server/101.conf nach /etc/pve/nodes/prox2/qemu-server/101.conf verschieben.

Um HA nutzen zu können, brauchst Du eigentlich einen geteilten Storage, oder eben ZFS-Replikation (wo die Gefahr besteht, Daten seit der letzten Replikation zu verlieren). Die Replikation musst Du allerdings manuell (via UI oder CLI) einrichten, HA macht das nicht automatisch.
 
  • Like
Reactions: achim22
Ich habe die ZFS-Replikation jetzt durchgeführt. Möchte ich die VMs auf prox2 migrieren und starten, brauche ich doch nur die confs zu kopieren, oder?
mv /etc/pve/nodes/NODE1/qemu-server/* /etc/pve/nodes/NODE2/qemu-server
 
Ich habe die ZFS-Replikation jetzt durchgeführt. Möchte ich die VMs auf prox2 migrieren und starten, brauche ich doch nur die confs zu kopieren, oder?
mv /etc/pve/nodes/NODE1/qemu-server/* /etc/pve/nodes/NODE2/qemu-server
Nein, das geht nicht, weil es nur eine Config Datei mit einer bestimmten ID geben darf. Auch das mit dem mv war nur der Vorschlag, um die kaputte Situation mit Disk auf der einen und Config auf der anderen Node zu beheben. Migration macht auch andere Dinge als die Konfigurationsdatei verschieben! Insbesondere triggert sie die Replikation und migriert den aktuellen Status der VM.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!