Kein Load Balancing bei HA Migration

optymale

New Member
Dec 15, 2020
7
0
1
28
Hallo zusammen,

ich habe gerade ein kleines Problem bei der Verteilung von VMs bei HA:
Es gibt 3 HA Groups: [PreferNode1: node1:2,node2:1,node3:1],[PreferNode2: node1:1,node2:2,node3:1],[PreferNode3: node1:1,node2:1,node3:2].
Die VMs auf den Nodes sind in den entsprechenden Gruppen.
In den Optionen ist die Option "HA Settings: shutdown_policy=migrate" gesetzt.
Laut Proxmox Doku sollten nun wenn ein Node ausfällt bzw. heruntergefahren wird die darauf befindlichen VMs auf die anderen beiden Nodes verteilt werden:

nodes: <node>[:<pri>]{,<node>[:<pri>]}*
[...]A resource bound to a group will run on the available nodes with the highest priority. If there are more nodes in the highest priority class, the services will get distributed to those nodes. The priorities have a relative meaning only.[...]
und
[...]If node1 is not available, you want to run them equally split on node2 and node3. If those nodes also fail, the services should run on node4. To achieve this you could set the node list to:
# ha-manager groupadd mygroup1 -nodes "node1:2,node2:1,node3:1,node4"

Als ich nun jedoch einen Node heruntergefahren habe wurden alle VMs nur auf einen anderen Node migriert und nicht gleichmäßig verteilt. Beim Ziel-Node ist der RAM zu mehr als 95% ausgelastet gewesen. Scheinbar funktioniert hier also die "Verteilung" der VMs nicht richtig.

Woran kann das liegen und nach welchen Faktoren sollten die VMs verteilt werden (Services, RAM, CPU, Round Robin)?

Danke im Voraus!

David
 
Hallo zusammen,

ich habe gerade ein kleines Problem bei der Verteilung von VMs bei HA:
Es gibt 3 HA Groups: [PreferNode1: node1:2,node2:1,node3:1],[PreferNode2: node1:1,node2:2,node3:1],[PreferNode3: node1:1,node2:1,node3:2].
Die VMs auf den Nodes sind in den entsprechenden Gruppen.
In den Optionen ist die Option "HA Settings: shutdown_policy=migrate" gesetzt.
Laut Proxmox Doku sollten nun wenn ein Node ausfällt bzw. heruntergefahren wird die darauf befindlichen VMs auf die anderen beiden Nodes verteilt werden:


und


Als ich nun jedoch einen Node heruntergefahren habe wurden alle VMs nur auf einen anderen Node migriert und nicht gleichmäßig verteilt. Beim Ziel-Node ist der RAM zu mehr als 95% ausgelastet gewesen. Scheinbar funktioniert hier also die "Verteilung" der VMs nicht richtig.

Woran kann das liegen und nach welchen Faktoren sollten die VMs verteilt werden (Services, RAM, CPU, Round Robin)?

Danke im Voraus!

David
Um das im Detail beurteilen zu können müsste man sich /etc/pve/ha/groups.cfg und /etc/pve/ha/resources.cfg genauer anschauen und aud diser Basis bewerten was eim Ausfall welcher Node mit den einzelnen VMs passieren soll.
 
Um das im Detail beurteilen zu können müsste man sich /etc/pve/ha/groups.cfg und /etc/pve/ha/resources.cfg genauer anschauen und aud diser Basis bewerten was eim Ausfall welcher Node mit den einzelnen VMs passieren soll.

Hallo Richard,
danke für deine Antwort. Anbei der Inhalt der beiden Config-Files:

Bash:
root@Node1:~# cat /etc/pve/ha/groups.cfg
group: Prefer-Node1
 nodes Node1:2,Node2:1,Node3:1
 nofailback 0
 restricted 0

group: Prefer-Node2
 nodes Node2:2,Node3:1,Node1:1
 nofailback 0
 restricted 0

group: Prefer-Node3
 nodes Node3:2,Node1:1,Node2:1
 nofailback 0
 restricted 0

Bei der folgenden Config wurden der Übersicht halber Zeilen rausgekürzt, zu erkennen an "[...]":

Bash:
root@Node1:~# cat /etc/pve/ha/resources.cfg
vm: 101
 group Prefer-Node1
 max_relocate 2
 max_restart 3
 state started

vm: 105
 group Prefer-Node1
 max_relocate 2
 max_restart 3
 state started

vm: 106
 group Prefer-Node1
 max_relocate 2
 max_restart 3
 state started

[...]

vm: 104
 group Prefer-Node2
 max_relocate 2
 max_restart 3
 state started

vm: 111
 group Prefer-Node2
 max_relocate 2
 max_restart 3
 state started

vm: 113
 group Prefer-Node2
 max_relocate 2
 max_restart 3
 state started

[...]

vm: 100
 group Prefer-Node3
 max_relocate 2
 max_restart 3
 state started

vm: 102
 group Prefer-Node3
 max_relocate 2
 max_restart 3
 state started

vm: 119
 group Prefer-Node3
 max_relocate 2
 max_restart 3
 state started
 
Sollte das so machen wie gewüscht: Bei Ausfall des bevorzugten Nodes die VMs auf die verbliebenen aufteilen. Kriterium ist dabei die Anzahl der zu verteilenden VMs (also NICHT die Auslastung der Nodes, was außerhalb HA läuft wird nicht berücksichtigt). Wenn trotzdem alles auf eine Node geschoben wird: im Log nachsehen ob vielleicht auf die andere Node die Migration fehlschlug, z.B. wegen einer fehlenden Resource.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!