[SOLVED] Migration von VM scheitert

Nov 13, 2019
32
1
8
41
So hallo zusammen ich bins mal wieder....

dieses mal versuche ich eine Livemigration einer VM auf einen anderen Node:

Die Festplatte habe ich vorher mit "Move Disk" auf einen Netzwerkspeicher gelegt (ging bisher immer so)

1575455477358.png
 

Attachments

  • 1575455366785.png
    1575455366785.png
    188.9 KB · Views: 12
Last edited:
ups ja die frage ist:

Warum geht das nicht weiter es bleibt einfach hängen alle anderen Vms funktionieren (also das migrieren) nur die eine macht stress.... Finde auch keine fehler oder ähnliches hatte gehofft mir kann da jemand beim debuggen helfen.... :)

Sorry wegen der fehlenden Frage

Hier noch ein der Text der kommt wenn ich Stop drücke

2019-12-04 11:27:06 starting migration of VM 121 to node 'le15966' (xx.xx.xx.xx)
2019-12-04 11:27:07 starting VM 121 on remote node 'le15966'
2019-12-04 12:15:14 ERROR: online migrate failure - command '/usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=le15966' root@xx.xx.xx.xx qm start 121 --skiplock --migratedfrom le10874 --migration_type secure --stateuri unix --machine pc-i440fx-4.0' failed: interrupted by signal
2019-12-04 12:15:14 aborting phase 2 - cleanup resources
2019-12-04 12:15:14 migrate_cancel
2019-12-04 12:15:14 ERROR: migration finished with problems (duration 00:48:08)
TASK ERROR: migration problems
 
interrupt bei signal, scheint als wenn Du es warst der ihn hart gekillt hat.
Läuft denn die Migration so lange? Oder kommt irgendwann ein Ende ohne Dein Zutun?
 
Aber laut Deinem Screenshot scheint er doch fertig geworden zu sein.
Steht ja da, Starting Migration und dann Starting VM auf Node
 
Kannst Du diesen Befehl einmal in der Console auf der Node wo die VM aktuell drauf ist eingeben?
Code:
/usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=le15966' root@xx.xx.xx.xx qm start 121 --skiplock --migratedfrom le10874 --migration_type secure --stateuri unix --machine pc-i440fx-4.0
Achte bitte darauf alles vollständig ein zu geben.
 
hab ich eingegeben... leider passiert da auch nix steht einfach und tut nix zumindest nix sichtbares....root:X.x.x.x hab ich natürlich angepasst
 
ok so wie es aussieht geht es jetzt habe festgestellt das im cluster 2 pves die gleiche ip adresse hatten und das ein ssh fehler sowie dieser fehler zusammenhingen vielen dank für die hilfe!
 
  • Like
Reactions: CoolTux

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!