Hallo zusammen,
wir betreiben ein 4 Node Cluster und ich habe gerade auf einem Node das Upgrade von 5.2-10 auf 5.3-5 durchgeführt. Dies führte dazu, dass (auch nach Reboot) der Node den Rest des Clusters nicht mehr sieht und umgekehrt die anderen Nodes ihn nicht.
root@pve04:~# pvecm status
Quorum information
------------------
Date: Wed Jan 2 11:33:31 2019
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000002
Ring ID: 2/404
Quorate: No
Votequorum information
----------------------
Expected votes: 4
Highest expected: 4
Total votes: 1
Quorum: 3 Activity blocked
Flags:
Membership information
----------------------
Nodeid Votes Name
0x00000002 1 192.168.43.14 (local)
root@pve04:~#
root@pve01:~# pvecm status
Quorum information
------------------
Date: Wed Jan 2 11:25:25 2019
Quorum provider: corosync_votequorum
Nodes: 3
Node ID: 0x00000004
Ring ID: 4/2744
Quorate: Yes
Votequorum information
----------------------
Expected votes: 4
Highest expected: 4
Total votes: 3
Quorum: 3
Flags: Quorate
Membership information
----------------------
Nodeid Votes Name
0x00000004 1 192.168.43.11 (local)
0x00000001 1 192.168.43.12
0x00000003 1 192.168.43.13
root@pve01:~#
Ist dieses Verhalten normal (aufgrund von Inkompatibilität verschiedener Versionen in einem Cluster)? Wenn ich mich nicht täusche, gab es dieses Problem aber beim Upgrade von 5.1 auf 5.2 nicht...
Ich habe zunächst auf keinem weiteren Node das Upgrade gestartet, da ich nicht dauerhaft das Quorum im verbliebenen Cluster verlieren möchte (das Problem hätte ich mit der zu bevorzugenden ungeraden Anzahl von Nodes natürlich nicht, aber zur Zeit ist das Setup leider so), falls es sich um ein anderes Problem handelt.
Falls das Verhalten normal ist: gibt es eine Möglichkeit, das Upgrade auf dem Cluster ohne Downtime sämtlicher VMs durchzuführen (migrieren kann ich sie ja nicht, wenn die Nodes mit 5.2 und 5.3 sich nie gegenseitig sehen)?
Vielen Dank im voraus für die Hilfe!
wir betreiben ein 4 Node Cluster und ich habe gerade auf einem Node das Upgrade von 5.2-10 auf 5.3-5 durchgeführt. Dies führte dazu, dass (auch nach Reboot) der Node den Rest des Clusters nicht mehr sieht und umgekehrt die anderen Nodes ihn nicht.
root@pve04:~# pvecm status
Quorum information
------------------
Date: Wed Jan 2 11:33:31 2019
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000002
Ring ID: 2/404
Quorate: No
Votequorum information
----------------------
Expected votes: 4
Highest expected: 4
Total votes: 1
Quorum: 3 Activity blocked
Flags:
Membership information
----------------------
Nodeid Votes Name
0x00000002 1 192.168.43.14 (local)
root@pve04:~#
root@pve01:~# pvecm status
Quorum information
------------------
Date: Wed Jan 2 11:25:25 2019
Quorum provider: corosync_votequorum
Nodes: 3
Node ID: 0x00000004
Ring ID: 4/2744
Quorate: Yes
Votequorum information
----------------------
Expected votes: 4
Highest expected: 4
Total votes: 3
Quorum: 3
Flags: Quorate
Membership information
----------------------
Nodeid Votes Name
0x00000004 1 192.168.43.11 (local)
0x00000001 1 192.168.43.12
0x00000003 1 192.168.43.13
root@pve01:~#
Ist dieses Verhalten normal (aufgrund von Inkompatibilität verschiedener Versionen in einem Cluster)? Wenn ich mich nicht täusche, gab es dieses Problem aber beim Upgrade von 5.1 auf 5.2 nicht...
Ich habe zunächst auf keinem weiteren Node das Upgrade gestartet, da ich nicht dauerhaft das Quorum im verbliebenen Cluster verlieren möchte (das Problem hätte ich mit der zu bevorzugenden ungeraden Anzahl von Nodes natürlich nicht, aber zur Zeit ist das Setup leider so), falls es sich um ein anderes Problem handelt.
Falls das Verhalten normal ist: gibt es eine Möglichkeit, das Upgrade auf dem Cluster ohne Downtime sämtlicher VMs durchzuführen (migrieren kann ich sie ja nicht, wenn die Nodes mit 5.2 und 5.3 sich nie gegenseitig sehen)?
Vielen Dank im voraus für die Hilfe!