2 Node HA Cluster ohne QDevice aufbauen geht das?

Nov 17, 2023
196
10
18
Moin,
ich würde gerne für kleinere Kunden einen HA Cluster mit 2 Nodes und ohne QDevice aufbauen.
Aktuelle habe ich nur einen 2 Node Cluster ohne HA im Einsatz. Das funktioniert sehr gut. In einem Disasterfall müssen halt die VMs auf dem Backup Node per Shell aktiviert werden. Es müssen die Hüllen der VMs in das Node2 Verzeichnis verschoben werden. (mv /etc/pve/nodes/node1/qemu-server/100.conf /etc/pve/nodes/node2/qemu-server/100.conf ) Dann erscheinen die VMs auf dem Node2 und können wieder gestartet werden. Der Replicationsjob auf Node2 muss gelöscht und gegebenenfalls wenn der Node1 wieder da ist neuangelegt werden


Folgende Szenario:

2 x PVE Nodes (Node1 ist der Produktiv Node, Node2 ist der Backup Node)
Alle VMs laufen produktiv auf dem Node1 und werden auf den Node 2 repliziert. Im Falle wenn der Node 1 ausfällt soll der Node 2 die VMs starten und die Arbeit übernehmen.
Ich dachte mir ich kann das über eine Anpassung der Votes im Corosync machen. Das heißt ich gebe dem Node 1 2 Stimmen. Fällt der Node 1 aus ist das Quorum (Mehrheit) erfüllt und der Node 2 fängt an die VMs zu starten.

Geht das so?

Was passiert wenn Node 1 wieder aktiviert wird? Ist also nicht wirklich kaputt.
Wie mache ich in einem solchen Fall die Wartungsarbeiten / Reboot auf Node 1? Damit nicht der Node 2 die VMs übernimmt,
 
Das Qdevice gibts nur weil es eben nicht ohne Risiko mit 2 Nodes möglich ist. Sobald du ein Ungleichgewicht baust, knalllt es wenn der "falsche" Node vom Netz geht.
 
  • Like
Reactions: magicpeter
Das Qdevice gibts nur weil es eben nicht ohne Risiko mit 2 Nodes möglich ist. Sobald du ein Ungleichgewicht baust, knalllt es wenn der "falsche" Node vom Netz geht.
OK danke, wenn jetzt der Node 2 Backup Server vom Netz geht, was passiert dann?
Doch eigentlich nix oder? Der Node 1 hat immer noch 2 Stimmen und läuft weiter.
Oder?
 
Doch eigentlich nix oder? Der Node 1 hat immer noch 2 Stimmen und läuft weiter.
Er läuft auch ohne "votes=2"-Tricks weiter - und die bereits laufenden VMs ebenso. Sofern kein HA aktiviert ist.

Ohne Quorum lässt sich der Überlebende allerdings nicht administrieren, daher setzt man dann oft manuell "pve expected 1".

Mit aktiviertem HA wird der einzige Überlebende allerdings brutal rebooten ("fencing") und nach dem Neustart keine VM starten.

Wohin wird das Backup gemacht? Ein NAS kann oft Container oder VMs ausführen; ein PBS kann das selbstverständlich ebenfalls.

Die Software für das QDev ist extrem "leicht" - ein beliebiger/alter/gebrauchter Raspberry Pi genügt.
 
  • Like
Reactions: magicpeter
Er läuft auch ohne "votes=2"-Tricks weiter - und die bereits laufenden VMs ebenso. Sofern kein HA aktiviert ist.

Ohne Quorum lässt sich der Überlebende allerdings nicht administrieren, daher setzt man dann oft manuell "pve expected 1".

Mit aktiviertem HA wird der einzige Überlebende allerdings brutal rebooten ("fencing") und nach dem Neustart keine VM starten.

Wohin wird das Backup gemacht? Ein NAS kann oft Container oder VMs ausführen; ein PBS kann das selbstverständlich ebenfalls.

Die Software für das QDev ist extrem "leicht" - ein beliebiger/alter/gebrauchter Raspberry Pi genügt.
Moin Udo, danke für deine Hilfen.

Also das Backup wird auf eine QNAP NAS gemacht, die ist aber so klein das sie keine VMS oder QDevice halten kann.

Ich merke schon meine Idee scheint nicht zu funktionieren.

Dann lasse ich das lieber.

Ich kaufe mir jetzt einen weiteren kleinen Node für kleines Geld und baue den ein und nutze den nur als weiteren Node mit PVE .
Dieser Node soll dann nur als Quorum dienen.

Jetzt aber noch mal zur Praxis.

Wenn ich jetzt meinen Produktiv Node 1 warten will und nicht will das bei Reboot des Node 1 die HA Funktionalität einsetzt und die VMs auf den Node 2 Backup Node schickt werden. Was muss ich tun?
 
Last edited:
  • Like
Reactions: UdoB
Wenn ich jetzt meinen Produktiv Node 1 warten will und nicht will das bei Reboot des Node 1 die HA Funktionalität einsetzt und die VMs auf den Node 2 Backup Node schickt werden. Was muss ich tun?
Naja, wenn das nur ein oder zwei VMs sind, die HA aktiviert haben, kann man deren Wunschzustand beispielsweise per Klick von "started" auf "ignored" setzen.

Außerdem gibt es noch den "Maintenance Mode", dessen Nutzen mir in diesem Sub-Minimum "Cluster" gerade unklar ist. Wenn man den für Node 2 setzt, nimmt dieser Node jedenfalls keine HA-Migration (kommend von Node 1) mehr entgegen. Das fühlt sich aber definitiv falsch-herum an...

Zu guter Letzt kann man den kompletten HA-Mechanismus cluster-weit deaktiveren, mit so etwas wie "pve-ha-lrm / pve-ha-crm stop" oder ähnlich. Ehrlich..., das habe ich noch nie gebraucht. Ich betreibe ja einen Cluster, weil ich einen... aktiven Cluster haben will :-)
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!