Migration Fehler

grefabu

Well-Known Member
May 23, 2018
244
14
58
51
Moin,

bei einer VM wird die Migration (standalone > standalone) über qm remote-migration nicht korrekt abgeschlossen.
Das System fängt zwar mit der Migration an, aber zum Schluß gibt es dann einen Fehler:

Code:
2025-03-24 13:07:27 xbzrle: send updates to 38522 pages in 8.6 MiB encoded memory, cache-miss 6.23%, overflow 354
2025-03-24 13:07:28 migration active, transferred 8.4 GiB of 8.0 GiB VM-state, 109.3 MiB/s
2025-03-24 13:07:28 xbzrle: send updates to 38522 pages in 8.6 MiB encoded memory, cache-miss 6.23%, overflow 354
tunnel: done handling forwarded connection from '/run/qemu-server/1015.migrate'
2025-03-24 13:07:29 migration status error: failed - Error in migration completion: Input/output error
2025-03-24 13:07:29 ERROR: online migrate failure - aborting
2025-03-24 13:07:29 aborting phase 2 - cleanup resources
2025-03-24 13:07:29 migrate_cancel
drive-ide0: Cancelling block job
drive-efidisk0: Cancelling block job
tunnel: done handling forwarded connection from '/run/qemu-server/1015_nbd.migrate'
tunnel: done handling forwarded connection from '/run/qemu-server/1015_nbd.migrate'
WARN: drive-ide0: Input/output error (io-status: ok)
WARN: drive-efidisk0: Input/output error (io-status: ok)
drive-ide0: Done.
drive-efidisk0: Done.
tunnel: -> sending command "stop" to remote
tunnel: <- got reply
tunnel: -> sending command "quit" to remote
tunnel: <- got reply
2025-03-24 13:07:35 ERROR: migration finished with problems (duration 00:13:53)
migration problems

Beide Systeme, Quell und Ziel wurden am Samstag gepacht:

proxmox-ve: 8.3.0 (running kernel: 6.8.12-8-pve)
pve-manager: 8.3.5 (running version: 8.3.5/dac3aa88bac3f300)

Andere VMs hatte ich Problemlos nach dem Patchen migrieren können,...

Die VM ist ein Windows Server 2022, qm agent ist am laufen.

Grüße

Gregor
 
Hi, dieser I/O Error könnte vom Netzwerk kommen oder die Zieldisk läuft voll. Aus dem Log allein kann man die Ursache nicht ausmachen.
 
Moin,

hmm, das das log nicht sehr aussagekräftig ist habe ich mir gedacht.

Die Zielplatte ist nicht voll, das Netzwerk schließe ich aus dem Grund aus, dass andere Maschinen sich Problemlos migrieren lassen.
So ein Verhalten habe ich noch nicht erlebt.

Die VM habe ich zwischen den zwei Servern auch schon mehr als einmal hin und her migriert.
Die Daten nebst RAM sind ja eigentlich auch schon zu 100% migriert.

Mal schauen ob mal ein Restart der VM etwas bringt,...
 
Warum nutzt du denn Remote Migrate, wenn du so oft migrierst?
 
Ich habe die beiden Maschinen bewusst nicht im Cluster.
Die eine ist der Backupserver, der hält aber auch Ressourcen für interim Viertualisation bereit.

Wenn ich den eigentlichen VE Host patche, schiebe ich immer ein paar VMs kurz rüber.

Ist noch nicht das Ausbau Ziel.
 
Ich habe die beiden Maschinen bewusst nicht im Cluster.
Die eine ist der Backupserver, der hält aber auch Ressourcen für interim Viertualisation bereit.

Wenn ich den eigentlichen VE Host patche, schiebe ich immer ein paar VMs kurz rüber.

Ist noch nicht das Ausbau Ziel.
Ist natürlich an valider Ansatz, aber ich bin da wiederum zu Faul. ;)
Ich favorisiere in so einer Konstellation lieber einen Cluster, auch gern Active/Backup, also alle VMs auf einem Node und die PBS VM dann auf dem anderen.
Wenn man Replikation nutzt, kann man jederzeit alle VMs mal eben auf den anderen migrieren zum patchen (oder automatisch vom HA Deamon erledigen lassen) und die PBS VM, kann man gut als VZDump sichern, damit ein komplettes Desaster Recovery auch sehr elegant und schnell geht.
 
Hi,
bitte pveversion -v von Ziel und Quelle posten, sowie die VM-Konfiguration qm config 1015 und Auszüge aus den System-Logs für den relevanten Zeitraum.