Wie kann man einen alleine laufenden Cluster-Node zum "Arbeiten" zwingen?

KaHa

Member
Dec 20, 2020
4
0
6
Hallo Forengemeinde.

Vermutlich ist das, was ich will, ein Einsteigerpunkt, aber ich finde momentan einfach keine Lösung, obwohl ich schon mit allen möglichen Ansätzen nach dem Komplex gesucht hatte:

  • Zuhause betreibe ich einen kleinen HomeLab-Cluster aus 2 kleinen Proxmox-Servern (Lenovo ThinkCentre Tiny verschiedener Bauart) und einem Q-Device auf einem RasPi.
    Im Normalfall ist allerdings immer nur ein Proxmox-Server aktiv und das Q-Device, damit ich immer ein Quorum habe und nicht immer händisch das obligatorische "pvecm expected 1" machen muss.
    Für alle meine Heim-Bedürfnisse funktioniert das auch ganz gut, aber momentan habe ich das eigentlich interessante Szenario:

  • Momentan möchte ich aber jedoch ausnahmsweise nur den einen Knoten alleine laufen lassen und brauche dabei den betrieb ohne Q-Device und ohne den zweiten Knoten.
    Nur kriege ich es einfach nicht hin, dass der Standalone-Knoten es akzeptiert, wenn ich das Quorum mittels "pvecm expected 1" reduziere:
    Die Ausführung des Statements funktioniert scheinbar problemlos und er kommt auch nicht mit einer Meldung zurück.
    Aber ein nachfolgender Aufruf von "pvecm status" bringt dasselbe Ergebnis, nämlich dass der Cluster nicht will.
    Siehe 1. Doku unten...

  • Wichtig ist, dass der eine Knoten (momentan) alleine laufen muss / soll und ich ihn dazu nicht aus dem Cluster herausnehmen möchte bzw. dass er später wieder als normales Cluster-Member laufen soll.
    Er soll "einfach nur tun", d.h. er soll die (überwiegend) LXC-Instanzen starten und ich möchte aus dem Netz auf die Instanzen zugreifen.

  • Mir ist bewusst, dass im normalen Cluster-Betrieb das Split-Brain-Problem besteht; das kann jedoch hier gerade nicht auftreten, weil mein eigener Brain (, also ich,) ja genau weiß, dass auch alle anderen Knoten inaktiv sind und es darum auch keine neuen Informationen aus dem Rest des Clusters geben könnte.
    Ausserdem sind alle Cluster-VMs/Container jeweils nur auf einem Knoten aktiv, d.h. es gibt per Cluster-Gast keine HA, die zu synchronisieren wäre...

  • In vielen abgegrasten Beiträgen habe ich immer das Standard-Verfahren (pvecm expected 1) gefunden, das ja anscheinend auch überall zu funktionieren scheint, wo mir aber momentan die Übung fehlt bzw. das tiefere Verständnis, warum es bei mir "nicht tut"...

Ich bin mir ziemlich sicher, dass ich irgendwas übersehe und Wissenslücken habe, aber ich stehe momentan auf'm Schlauch und freue mich über eine eventuell hilfreiche Idee von euch...
Was mache ich falsch bzw. wo ist mein Denkfehler bzw. was fehlt mir an Wissen?

Viele Grüße und vielen Dank vorab für eure Unterstützung,
Ciao, Klaus
___________________________________

1. Hier die einschlägigen Ausgaben beim Shell-Aufruf

Code:
root@server0:~#
root@server0:~# pvecm status
Cluster information
-------------------
Name:             cluster24
Config Version:   18
Transport:        knet
Secure auth:      on

Quorum information
------------------
Date:             Thu Aug 24 12:20:01 2023
Quorum provider:  corosync_votequorum
Nodes:            1
Node ID:          0x00000002
Ring ID:          2.7c5
Quorate:          No

Votequorum information
----------------------
Expected votes:   2
Highest expected: 2
Total votes:      1
Quorum:           2 Activity blocked
Flags:            Qdevice

Membership information
----------------------
    Nodeid      Votes    Qdevice Name
0x00000002          1   A,NV,NMW 192.168.1.240 (local)
0x00000000          0            Qdevice (votes 1)
root@server0:~#
root@server0:~# pvecm expected 1
root@server0:~#
root@server0:~# pvecm status
Cluster information
-------------------
Name:             cluster24
Config Version:   18
Transport:        knet
Secure auth:      on

Quorum information
------------------
Date:             Thu Aug 24 12:20:12 2023
Quorum provider:  corosync_votequorum
Nodes:            1
Node ID:          0x00000002
Ring ID:          2.7c5
Quorate:          No

Votequorum information
----------------------
Expected votes:   2
Highest expected: 2
Total votes:      1
Quorum:           2 Activity blocked
Flags:            Qdevice

Membership information
----------------------
    Nodeid      Votes    Qdevice Name
0x00000002          1   A,NV,NMW 192.168.1.240 (local)
0x00000000          0            Qdevice (votes 1)
root@server0:~#
root@server0:~#
____________________

2. Ein ScreenShot:
PMX-Doku_01.png
 
Last edited:
Wenn ich mal https://pve.proxmox.com/pve-docs/chapter-pvecm.html#_corosync_external_vote_support zitieren darf:

"If the QNet daemon itself fails, no other node may fail or the cluster immediately loses quorum. For example, in a cluster with 15 nodes, 7 could fail before the cluster becomes inquorate. But, if a QDevice is configured here and it itself fails, no single node of the 15 may fail. The QDevice acts almost as a single point of failure in this case."

D.h. bevor das QDevice auf dem RasPi ausgeschaltet wird, sollte es aus dem Cluster entfernt werden.
 
Hallo Gurubert,

danke für die Info:
Für mich ist es - hierzu - etwas zu spät; aber wenn ich das nächste Mal das Selbe vorhabe (, also einen Node ohne den Cluster zu betreiben), dann weiß ich, was ich vorher tun muss...

Vielen Dank...

@Moderation / Admins:
Wenn's nach mir geht, könnten wir den Thread schließen.

VLG, ciao, Klaus
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!