Hallo,
es gibt einige Posts zu diesem Thema, aber mit keinem komme ich weiter, daher bitte ich hier um Unterstützung.
3 Nodes sollen es im Cluster werden. (2 Nodes im Netzwerk A, 1 Node im Netzwerk B)
2 Nodes sind schon drinnen. (1 Node aus Netzwerk A mit einer Node aus Netzwerk B - hier musste ich erst auf die richtige MTU kommen, damit das funktioniert hat)
Die Node 2 vom Netzwerk A lässt sich auf Teufel komm raus einfach nicht in den Cluster packen, jeweils weil er wohl den Token nicht rechtzeitig bekommt? Warum?
2023-12-13T19:32:02.734740+01:00 truhe pmxcfs[2341]: [dcdb] notice: cpg_send_message retry 10
2023-12-13T19:32:02.748934+01:00 truhe pmxcfs[2341]: [status] notice: cpg_send_message retry 60
2023-12-13T19:32:03.379108+01:00 truhe corosync[3309]: [TOTEM ] Token has not been received in 6449 ms
2023-12-13T19:32:03.736175+01:00 truhe pmxcfs[2341]: [dcdb] notice: cpg_send_message retry 20
2023-12-13T19:32:03.750488+01:00 truhe pmxcfs[2341]: [status] notice: cpg_send_message retry 70
Eigentlich kenne ich das ja von Netzwerk-übergreifend her, wo wenn die MTU nicht passt, es den selben Effekt des nicht-clusterings zeigt. Aber die MTU passt zwischen allen Nodes (MTU 1336 in der corosync.conf). Jeweils eine OPNSense auf beiden Netzwerkseiten mit Wireguard verbunden (MTU 1412).
# pvecm status
Cluster information
-------------------
Name: manythings
Config Version: 22
Transport: knet
Secure auth: on
Quorum information
------------------
Date: Wed Dec 13 19:48:25 2023
Quorum provider: corosync_votequorum
Nodes: 2
Node ID: 0x00000001
Ring ID: 1.f31
Quorate: Yes
Votequorum information
----------------------
Expected votes: 2
Highest expected: 2
Total votes: 2
Quorum: 2
Flags: Quorate Qdevice
Membership information
----------------------
Nodeid Votes Qdevice Name
0x00000001 1 NA,NV,NMW 192.168.14.10 (local)
0x00000002 1 NA,NV,NMW 192.168.15.11
0x00000000 0 Qdevice (votes 0)
pvecm add <Cluster-IP> hab ich mit und ohne QDevice ausprobiert.
Nach jedem Versuch wurde der Cluster cleaned-up.
Ein neu installiertes Proxmox in Netzwerk A konnte mit dem selben Fehler dem Cluster in Netzwerk A nicht beitreten.
Ein neu installiertes Netzwerk in Netzwerk B konnte dem Cluster in Netzwerk A sauber beitreten.
Liegt es jetzt am Netzwerk, oder am Cluster? Ich weiss, es deutet vieles aufs Netzwerk hin, aber zwischen den Nodes ist nur ein dummer Switch, mit dem es schon funktioniert hat.
es gibt einige Posts zu diesem Thema, aber mit keinem komme ich weiter, daher bitte ich hier um Unterstützung.
3 Nodes sollen es im Cluster werden. (2 Nodes im Netzwerk A, 1 Node im Netzwerk B)
2 Nodes sind schon drinnen. (1 Node aus Netzwerk A mit einer Node aus Netzwerk B - hier musste ich erst auf die richtige MTU kommen, damit das funktioniert hat)
Die Node 2 vom Netzwerk A lässt sich auf Teufel komm raus einfach nicht in den Cluster packen, jeweils weil er wohl den Token nicht rechtzeitig bekommt? Warum?
2023-12-13T19:32:02.734740+01:00 truhe pmxcfs[2341]: [dcdb] notice: cpg_send_message retry 10
2023-12-13T19:32:02.748934+01:00 truhe pmxcfs[2341]: [status] notice: cpg_send_message retry 60
2023-12-13T19:32:03.379108+01:00 truhe corosync[3309]: [TOTEM ] Token has not been received in 6449 ms
2023-12-13T19:32:03.736175+01:00 truhe pmxcfs[2341]: [dcdb] notice: cpg_send_message retry 20
2023-12-13T19:32:03.750488+01:00 truhe pmxcfs[2341]: [status] notice: cpg_send_message retry 70
Eigentlich kenne ich das ja von Netzwerk-übergreifend her, wo wenn die MTU nicht passt, es den selben Effekt des nicht-clusterings zeigt. Aber die MTU passt zwischen allen Nodes (MTU 1336 in der corosync.conf). Jeweils eine OPNSense auf beiden Netzwerkseiten mit Wireguard verbunden (MTU 1412).
# pvecm status
Cluster information
-------------------
Name: manythings
Config Version: 22
Transport: knet
Secure auth: on
Quorum information
------------------
Date: Wed Dec 13 19:48:25 2023
Quorum provider: corosync_votequorum
Nodes: 2
Node ID: 0x00000001
Ring ID: 1.f31
Quorate: Yes
Votequorum information
----------------------
Expected votes: 2
Highest expected: 2
Total votes: 2
Quorum: 2
Flags: Quorate Qdevice
Membership information
----------------------
Nodeid Votes Qdevice Name
0x00000001 1 NA,NV,NMW 192.168.14.10 (local)
0x00000002 1 NA,NV,NMW 192.168.15.11
0x00000000 0 Qdevice (votes 0)
pvecm add <Cluster-IP> hab ich mit und ohne QDevice ausprobiert.
Nach jedem Versuch wurde der Cluster cleaned-up.
Ein neu installiertes Proxmox in Netzwerk A konnte mit dem selben Fehler dem Cluster in Netzwerk A nicht beitreten.
Ein neu installiertes Netzwerk in Netzwerk B konnte dem Cluster in Netzwerk A sauber beitreten.
Liegt es jetzt am Netzwerk, oder am Cluster? Ich weiss, es deutet vieles aufs Netzwerk hin, aber zwischen den Nodes ist nur ein dummer Switch, mit dem es schon funktioniert hat.