Cluster auf 5.0 upgraden

drz-support

Renowned Member
Feb 14, 2014
24
2
68
Guten Tag

In den Preconditions ist zu lesen: "no VM or CT running"

Gilt das nur für den Node der gerade upgedatet wird oder für alle Nodes im Cluster.

Kann ich einen Node updaten, dann alle VM's darauf migrieren und dann den nächsten Node aktualisieren?

Danke für die Rückmeldung.
 
Gilt das nur für den Node der gerade upgedatet wird oder für alle Nodes im Cluster.
Gilt primär nur für Node aber aufpassen wenn HA eingeschalten ist.
Wenn HA existiert am gesten vorher deaktivieren.

Kann ich einen Node updaten, dann alle VM's darauf migrieren und dann den nächsten Node aktualisieren?
Ja das geht.
 
Ich habe 2 der 3 Nodes upgedatet. Hat alles einwandfrei geklappt.
Nun steht der letzte Node an. Ich bin dabei alle VM's von diesem letzten Node auf die anderen Nodes zu migrieren. Die Windows VM's lassen sich problemlos migrieren. Alle Linux VM's beenden die Migration mit diesem Output:
Code:
Task viewer: VM 127 - Migrate
Output
Status
Stop
Jul 11 14:08:03 starting migration of VM 127 to node 'drz-pve01-02' (129.132.46.19)
Jul 11 14:08:03 copying disk images
Jul 11 14:08:03 starting VM 127 on remote node 'drz-pve01-02'
Jul 11 14:08:06 start remote tunnel
Jul 11 14:08:07 starting online/live migration on unix:/run/qemu-server/127.migrate
Jul 11 14:08:07 migrate_set_speed: 8589934592
Jul 11 14:08:07 migrate_set_downtime: 0.1
Jul 11 14:08:07 set migration_caps
Jul 11 14:08:07 set cachesize: 429496729
Jul 11 14:08:07 start migrate command to unix:/run/qemu-server/127.migrate
Jul 11 14:08:09 migration status error: failed
Jul 11 14:08:09 ERROR: online migrate failure - aborting
Jul 11 14:08:09 aborting phase 2 - cleanup resources
Jul 11 14:08:09 migrate_cancel
Jul 11 14:08:11 ERROR: migration finished with problems (duration 00:00:08)
TASK ERROR: migration problems

Ist eine Lösung bekannt für dieses Problem? Wie kann ich bei der Lösungsfindung behilflich sein?

Besten Dank für die Unterstüttzung
Andreas
 
bitte mal die vm config posten
 
Hier mal 4 VM Konfigurationen die sich nicht Live migrieren lassen. Es handelt sich um Ubuntu Installationen die auf dem letzten Proxmox 4.4 Node im Cluster aktiv sind.

Code:
#Ubuntu 14.04 Server
balloon: 8
bootdisk: virtio0
cores: 1
ide2: none,media=cdrom
memory: 8192
name: drz-mgvm01
net0: bridge=vmbr129,virtio=BE:C2:A7:AF:12:04
numa: 0
ostype: l26
smbios1: uuid=26feefd6-12ca-4a6e-a533-2704f873f389
sockets: 1
virtio0: pveimage-ssd:100/vm-100-disk-1.qcow2,size=16G


Code:
bootdisk: virtio0
cores: 1
hotplug: disk,network,usb,cpu
ide2: pvetemplate:iso/ubuntu-16.04-server-amd64.iso,media=cdrom
memory: 4096
name: drz-mlstats
net0: virtio=32:37:65:61:64:61,bridge=vmbr120
numa: 0
ostype: l26
smbios1: uuid=764b379e-27a7-40eb-8af0-1a96bfd2b657
sockets: 1
virtio0: pveimage-ssd:102/vm-102-disk-2.qcow2,size=50G


Code:
balloon: 4096
bootdisk: virtio0
cores: 1
ide2: none,media=cdrom
memory: 8192
name: drz-software
net0: virtio=DE:AD:00:00:00:05,bridge=vmbr120
ostype: l26
sockets: 1
virtio0: pveimage-hd:109/vm-109-disk-1.qcow2,size=512G


Code:
bootdisk: virtio0
cores: 2
hotplug: disk,network,usb,memory,cpu
ide2: none,media=cdrom
memory: 4096
name: drz-jungle
net0: virtio=DA:F9:3A:E2:E9:90,bridge=vmbr120
numa: 1
ostype: l26
smbios1: uuid=0f590d97-6c39-4a12-a156-28da70ad3cce
sockets: 1
virtio0: pveimage-ssd:110/vm-110-disk-1.qcow2,size=50G


Andreas
 
Hier die Konfig der einzigen Linux Maschine die live migriert werden konnte:

Code:
#Ubuntu 14.04
balloon: 16384
bootdisk: virtio0
cores: 4
ide2: none,media=cdrom
memory: 32768
name: drz-cruncher
net0: virtio=56:47:CA:B1:7F:A4,bridge=vmbr120
ostype: l26
sockets: 1
vga: std
virtio0: pveimage-ssd:113/vm-113-disk-1.qcow2,size=100G


und hier die Konfig einer Windows Maschine die auch problemlos migriert werden konnte:
Code:
agent: 1
balloon: 4096
bootdisk: virtio0
cores: 2
hotplug: 1
ide2: pvetemplate:iso/virtio-win-0.1.118.iso,media=cdrom,size=55632K
memory: 12288
name: drz-moog
net0: virtio=22:6A:F3:08:23:47,bridge=vmbr129
ostype: win8
sockets: 1
virtio0: pveimage-ssd:111/vm-111-disk-1.qcow2,size=80G
 
ok, es scheint als hätte sich hier ein fehler eingeschlichen.

das default display hat sich geändert von cirrus zu std, was die migration fehlschlagen lässt (bei der windows vm nicht weil dort das default schon std ist)

ein manueller workaround wäre, in die configs der linux vms
Code:
vga: cirrus

mit einem editor reinzuschreiben und dann live zu migrieren

alternativ (und besser) wäre, die vms herunterzufahren, offline zu migrieren und dann wieder zu starten
das hätte den vorteil, dass die vms gleich das display std (das besser und sicherer ist) verwenden
 
Besten Dank für die prompte Rückmeldung. Der manuelle Workaround, sowie die Lösung mit offline migrieren funktionieren.

Grüsse
Andreas
 
super und danke für die rückmeldung

wir werden versuchen entweder einen fix (für 4.4) rauszubringen, oder die upgrade anleitung zu aktualisieren falls keine vernünftige lösung im code machbar ist
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!