Moin,
ich würde gerne für kleinere Kunden einen HA Cluster mit 2 Nodes und ohne QDevice aufbauen.
Aktuelle habe ich nur einen 2 Node Cluster ohne HA im Einsatz. Das funktioniert sehr gut. In einem Disasterfall müssen halt die VMs auf dem Backup Node per Shell aktiviert werden. Es müssen die Hüllen der VMs in das Node2 Verzeichnis verschoben werden. (mv /etc/pve/nodes/node1/qemu-server/100.conf /etc/pve/nodes/node2/qemu-server/100.conf ) Dann erscheinen die VMs auf dem Node2 und können wieder gestartet werden. Der Replicationsjob auf Node2 muss gelöscht und gegebenenfalls wenn der Node1 wieder da ist neuangelegt werden
Folgende Szenario:
2 x PVE Nodes (Node1 ist der Produktiv Node, Node2 ist der Backup Node)
Alle VMs laufen produktiv auf dem Node1 und werden auf den Node 2 repliziert. Im Falle wenn der Node 1 ausfällt soll der Node 2 die VMs starten und die Arbeit übernehmen.
Ich dachte mir ich kann das über eine Anpassung der Votes im Corosync machen. Das heißt ich gebe dem Node 1 2 Stimmen. Fällt der Node 1 aus ist das Quorum (Mehrheit) erfüllt und der Node 2 fängt an die VMs zu starten.
Geht das so?
Was passiert wenn Node 1 wieder aktiviert wird? Ist also nicht wirklich kaputt.
Wie mache ich in einem solchen Fall die Wartungsarbeiten / Reboot auf Node 1? Damit nicht der Node 2 die VMs übernimmt,
ich würde gerne für kleinere Kunden einen HA Cluster mit 2 Nodes und ohne QDevice aufbauen.
Aktuelle habe ich nur einen 2 Node Cluster ohne HA im Einsatz. Das funktioniert sehr gut. In einem Disasterfall müssen halt die VMs auf dem Backup Node per Shell aktiviert werden. Es müssen die Hüllen der VMs in das Node2 Verzeichnis verschoben werden. (mv /etc/pve/nodes/node1/qemu-server/100.conf /etc/pve/nodes/node2/qemu-server/100.conf ) Dann erscheinen die VMs auf dem Node2 und können wieder gestartet werden. Der Replicationsjob auf Node2 muss gelöscht und gegebenenfalls wenn der Node1 wieder da ist neuangelegt werden
Folgende Szenario:
2 x PVE Nodes (Node1 ist der Produktiv Node, Node2 ist der Backup Node)
Alle VMs laufen produktiv auf dem Node1 und werden auf den Node 2 repliziert. Im Falle wenn der Node 1 ausfällt soll der Node 2 die VMs starten und die Arbeit übernehmen.
Ich dachte mir ich kann das über eine Anpassung der Votes im Corosync machen. Das heißt ich gebe dem Node 1 2 Stimmen. Fällt der Node 1 aus ist das Quorum (Mehrheit) erfüllt und der Node 2 fängt an die VMs zu starten.
Geht das so?
Was passiert wenn Node 1 wieder aktiviert wird? Ist also nicht wirklich kaputt.
Wie mache ich in einem solchen Fall die Wartungsarbeiten / Reboot auf Node 1? Damit nicht der Node 2 die VMs übernimmt,