Hallo Community,
ich habe ein paar Fragen bezüglich meiner DRBD9-Konfiguration.
Ich benutze die aktuelle Proxmox und DRBD9 Version.
Konfiguriert wurde nach der DRBD9 Anleitung von Proxmox.
Es gibt 3 nodes, von denen aber nur 2 ein DRBD-Storage besitzen. Die andere node wurde für Quorum hinzugefügt.
Auf node1 wurde folgenden gemacht und es funktionierte alles ohne Fehler.
drbdmanage init 10.10.10.10
drbdmanage add-node node2 10.10.10.11
drbdmanage add-node --no-storage node3 10.10.10.12
Aus drbdmanage list-nodes konnte man von allen nodes ein "OK" sehen. Auf node1 und node2 waren die PoolSize und PoolFree gleich.
Danach wurde eine virtuelle Machine in Proxmox im zuvor erstellen drbd-Storage angelegt. Diese vom wurde auch seitens DRBD synchronisiert, was man mit drbdadm status sehen konnte. Node1 ist primary und alle anderen waren secondary. Auch die PoolSize und PoolFree wurden auf node1 und node2 gleich verändert.
Die Livemigration und HA funktionierten auch.
Nun wollte ich verschiedene Szenarien testen:
Aus und Wiedereinschalten einer Node -> funktionierte
Als nächstes habe ich die DRBD-Disk auf node2 zerstört. Auf node1 wurde folgendes unternommen: drbdmanage remove-node node2, was auch erfolgreich war. Meine Überlegung war nun die DRBD-Disk auf der node2 neu zu partitionieren und alle pools etc neu anzulegen. Ein erneutes hinzufügen von node1 aus funktionierte auch, jedoch synchronisiert die VM nicht ordentlich. Wenn ich mir nun die nodes auflisten lasse sind die PoolSize und PoolFree nicht gleich.
Mit lsblk auf node1 sieht man das die vm auf der drbd-disk angehangen ist, auf node2 sieht man jedoch nur drbd100 welche zwar die gleiche Größe wie die VM hat, jedoch nicht wie auf node1 angehangen ist. Die Livemigration funktioniert weiterhin, jedoch bleiben PoolSize und PoolFree ungleich.
drbdadm status auf node1 gibt aus:
VM_ID role: Primary
peer-disk UpToDate
node2 role: Primary
peer-disk: Diskless
auf node2
VM_ID role: Primary
disk: Diskless
node1 role: Primary
peer-disk: UpToDate
Nun habe die VM von Node1 auf Node2 migriert und die DRBD-Disk von Node1 zerstört. Nun bekam ich die Fehlermeldung: Need access to UpToDate data und somit war mein DRBD ganz kaputt und meine VM weg.
Kann bitte einer erklären wo der Fehler liegt? Es muss doch möglich sein bzw es kann immer passieren das eine Node ausgetauscht werden muss. Wie bekomme ich nach dem Hinzufügen wieder einen konsistenten Zustand?
- drbdadm adjust all wurde ausgeführt
Für Antworten wäre ich sehr dankbar, weil in diesem Zustand ist leider kein Livebetrieb möglich.
Gruß
ich habe ein paar Fragen bezüglich meiner DRBD9-Konfiguration.
Ich benutze die aktuelle Proxmox und DRBD9 Version.
Konfiguriert wurde nach der DRBD9 Anleitung von Proxmox.
Es gibt 3 nodes, von denen aber nur 2 ein DRBD-Storage besitzen. Die andere node wurde für Quorum hinzugefügt.
Auf node1 wurde folgenden gemacht und es funktionierte alles ohne Fehler.
drbdmanage init 10.10.10.10
drbdmanage add-node node2 10.10.10.11
drbdmanage add-node --no-storage node3 10.10.10.12
Aus drbdmanage list-nodes konnte man von allen nodes ein "OK" sehen. Auf node1 und node2 waren die PoolSize und PoolFree gleich.
Danach wurde eine virtuelle Machine in Proxmox im zuvor erstellen drbd-Storage angelegt. Diese vom wurde auch seitens DRBD synchronisiert, was man mit drbdadm status sehen konnte. Node1 ist primary und alle anderen waren secondary. Auch die PoolSize und PoolFree wurden auf node1 und node2 gleich verändert.
Die Livemigration und HA funktionierten auch.
Nun wollte ich verschiedene Szenarien testen:
Aus und Wiedereinschalten einer Node -> funktionierte
Als nächstes habe ich die DRBD-Disk auf node2 zerstört. Auf node1 wurde folgendes unternommen: drbdmanage remove-node node2, was auch erfolgreich war. Meine Überlegung war nun die DRBD-Disk auf der node2 neu zu partitionieren und alle pools etc neu anzulegen. Ein erneutes hinzufügen von node1 aus funktionierte auch, jedoch synchronisiert die VM nicht ordentlich. Wenn ich mir nun die nodes auflisten lasse sind die PoolSize und PoolFree nicht gleich.
Mit lsblk auf node1 sieht man das die vm auf der drbd-disk angehangen ist, auf node2 sieht man jedoch nur drbd100 welche zwar die gleiche Größe wie die VM hat, jedoch nicht wie auf node1 angehangen ist. Die Livemigration funktioniert weiterhin, jedoch bleiben PoolSize und PoolFree ungleich.
drbdadm status auf node1 gibt aus:
VM_ID role: Primary
peer-disk UpToDate
node2 role: Primary
peer-disk: Diskless
auf node2
VM_ID role: Primary
disk: Diskless
node1 role: Primary
peer-disk: UpToDate
Nun habe die VM von Node1 auf Node2 migriert und die DRBD-Disk von Node1 zerstört. Nun bekam ich die Fehlermeldung: Need access to UpToDate data und somit war mein DRBD ganz kaputt und meine VM weg.
Kann bitte einer erklären wo der Fehler liegt? Es muss doch möglich sein bzw es kann immer passieren das eine Node ausgetauscht werden muss. Wie bekomme ich nach dem Hinzufügen wieder einen konsistenten Zustand?
- drbdadm adjust all wurde ausgeführt
Für Antworten wäre ich sehr dankbar, weil in diesem Zustand ist leider kein Livebetrieb möglich.
Gruß
Last edited: