Guten Tag in die Runde. Nachdem ich mittlerweile etwas planlos an meinem Cluster mit 3 Maschinen hänge bitte ich um eure Hilfe.
Die Tage wurde das Upgrade laut Anleitung auf Proxmox 6 von 5.4 durchgeführt. Natürlich vorher Corosync hochgezogen auf die 3.
Nach Neustart der Maschinen laufen nur noch 2 so halbwegs Reibungslos. Die dritte Maschine hängt im Netz (ist auch der Backupspace für die anderen beiden) und die Backups laufen täglich drauf rein, jedoch quorum bekommt sie keines mehr.
pvecm status der Problemmaschine:
Die Corosync files sehen auf allen 3 Maschinen gleich aus:
Der Service Status sieht wie folgt aus:
Hier noch der Status einer anderen Maschine:
Die Tage wurde das Upgrade laut Anleitung auf Proxmox 6 von 5.4 durchgeführt. Natürlich vorher Corosync hochgezogen auf die 3.
Nach Neustart der Maschinen laufen nur noch 2 so halbwegs Reibungslos. Die dritte Maschine hängt im Netz (ist auch der Backupspace für die anderen beiden) und die Backups laufen täglich drauf rein, jedoch quorum bekommt sie keines mehr.
pvecm status der Problemmaschine:
Cluster information
-------------------
Name: pool
Config Version: 15
Transport: knet
Secure auth: on
Quorum information
------------------
Date: Tue Feb 11 08:45:08 2020
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000002
Ring ID: 2.4d698
Quorate: No
Votequorum information
----------------------
Expected votes: 3
Highest expected: 3
Total votes: 1
Quorum: 2 Activity blocked
Flags:
Membership information
----------------------
Nodeid Votes Name
0x00000002 1 192.168.3.4 (local)
Die Corosync files sehen auf allen 3 Maschinen gleich aus:
logging {
debug: off
to_syslog: yes
}
nodelist {
node {
name: srv1
nodeid: 1
quorum_votes: 1
ring0_addr: srv1
}
node {
name: srv3
nodeid: 2
quorum_votes: 1
ring0_addr: srv3
}
node {
name: srv4
nodeid: 3
quorum_votes: 1
ring0_addr: srv4
}
}
quorum {
provider: corosync_votequorum
}
totem {
cluster_name: pool
config_version: 15
interface {
bindnetaddr: 192.168.3.2
ringnumber: 0
}
ip_version: ipv4
secauth: on
version: 2
}
Der Service Status sieht wie folgt aus:
Feb 11 08:50:31 srv4 corosync[1525]: [TOTEM ] A new membership (1.4d974) was formed. Members
Feb 11 08:50:31 srv4 corosync[1525]: [CPG ] downlist left_list: 0 received
Feb 11 08:50:31 srv4 corosync[1525]: [CPG ] downlist left_list: 0 received
Feb 11 08:50:31 srv4 corosync[1525]: [QUORUM] Members[2]: 1 3
Feb 11 08:50:31 srv4 corosync[1525]: [MAIN ] Completed service synchronization, ready to provide service.
Feb 11 08:50:36 srv4 corosync[1525]: [TOTEM ] A new membership (1.4d980) was formed. Members
Feb 11 08:50:36 srv4 corosync[1525]: [CPG ] downlist left_list: 0 received
Feb 11 08:50:36 srv4 corosync[1525]: [CPG ] downlist left_list: 0 received
Feb 11 08:50:36 srv4 corosync[1525]: [QUORUM] Members[2]: 1 3
Feb 11 08:50:36 srv4 corosync[1525]: [MAIN ] Completed service synchronization, ready to provide service
Hier noch der Status einer anderen Maschine:
Cluster information
-------------------
Name: pool
Config Version: 15
Transport: knet
Secure auth: on
Quorum information
------------------
Date: Tue Feb 11 08:47:18 2020
Quorum provider: corosync_votequorum
Nodes: 2
Node ID: 0x00000003
Ring ID: 1.4d7b8
Quorate: Yes
Votequorum information
----------------------
Expected votes: 3
Highest expected: 3
Total votes: 2
Quorum: 2
Flags: Quorate
Membership information
----------------------
Nodeid Votes Name
0x00000001 1 192.168.3.2
0x00000003 1 192.168.3.5 (local)