Kurze Info zu meiner Umgebung vorab.
Ich nutze aktuell keine HA-Features für die auf den Knoten laufenden VMs.
Meine Zielsetzung war lediglich ein gemeinsames Volume auf einem vorhandenen SAN zu nutzen, wobei die Migration (online und offline) manuell durchgeführt werden sollte.
Mit den nachfolgenden Schritten habe ich mein 3-Knoten-Cluster entsprechend den o.a. Anforderungen ans laufen bekommen.
- Basisinstallation (4.1)
- um das eingerichtete SAN-Volume an die Knoten anbinden zu können multipath installiert (apt-get install multipath-tools)
- Erweiterung clvm für LVM sowie das clusterfähige gfs2-Dateisystem auf den Knoten installiert (apt-get install clvm gfs2-utils)
- DLM in den Kernel geladen (dlm in /etc/modules eingefügt)
- Cluster angelegt (pvecm create ....., pvecm add .....)
- clusterlogging für LVM aktiviert (lvmconf -enable-cluster)
- zunächst wurden die mit o.a. Paketen installierten Dienste dlm_controld und clvmd nanuell von der Shell gestartet.
- Prüfen, ob das dlm-Modul geladen und die o.a. Dienste gestartet wurden.
- Anlegen des Logical Volumes auf einem der Knoten um das SAN-Volume nutzen zu können (pvcreate /dev/mapper/......., vgcreate -cy ..., lvcreate ......)
- Installation des clusterfähigen Dateisystems gfs2 auf dem Logical Volume (mkfs.gfs2 -p lock_dlm -t ..... -j3 ....)
- Editieren der /etc/fstab (auf allen Knoten) um das Volume beim Systemstart einhängen zu können (/dev/....../.... /mnt/... gfs2 defaults,noatime,nodiratime 0 0)
- Speicher in der Proxmox-Web-GUI als "Verzeichnis" hinzugefügt (Versuch als LVM hinzuzufügen scheiterte)
- Dienste dlm and lvm2-cluster-activation aktiviert. Per Voreinstellung sind diese nicht aktiviert (systemctl enable ...)
Bezüglich LVM2 (early-activation and activation) tauchen Fehlermeldungen ("failed") während des Startvorgangs auf.
Um die Fehlermeldung des lvm2-activation Dienstes zu unterbinden, habe ich diesen deaktiviert, da trotz der Fehlermeldung alle LVMs verfügbar waren.
"LVM2-early-activation failed" taucht weiterhin auf. Diesbezüglich muss ich noch suchen, .....
Auch nach Upgrade auf 4.4 läuft der Cluster soweit. Die Maschinen lassen sich ohne Probleme auch online migrieren. Auch ein Neustart eines Knotens, z.B. zur Durchführung von Firmware-Upgrades, bereitete bisher keine Schwierigkeiten.
Feedback oder Verbesserungsvorschläge sind willkommen ;-)
Ich nutze aktuell keine HA-Features für die auf den Knoten laufenden VMs.
Meine Zielsetzung war lediglich ein gemeinsames Volume auf einem vorhandenen SAN zu nutzen, wobei die Migration (online und offline) manuell durchgeführt werden sollte.
Mit den nachfolgenden Schritten habe ich mein 3-Knoten-Cluster entsprechend den o.a. Anforderungen ans laufen bekommen.
- Basisinstallation (4.1)
- um das eingerichtete SAN-Volume an die Knoten anbinden zu können multipath installiert (apt-get install multipath-tools)
- Erweiterung clvm für LVM sowie das clusterfähige gfs2-Dateisystem auf den Knoten installiert (apt-get install clvm gfs2-utils)
- DLM in den Kernel geladen (dlm in /etc/modules eingefügt)
- Cluster angelegt (pvecm create ....., pvecm add .....)
- clusterlogging für LVM aktiviert (lvmconf -enable-cluster)
- zunächst wurden die mit o.a. Paketen installierten Dienste dlm_controld und clvmd nanuell von der Shell gestartet.
- Prüfen, ob das dlm-Modul geladen und die o.a. Dienste gestartet wurden.
- Anlegen des Logical Volumes auf einem der Knoten um das SAN-Volume nutzen zu können (pvcreate /dev/mapper/......., vgcreate -cy ..., lvcreate ......)
- Installation des clusterfähigen Dateisystems gfs2 auf dem Logical Volume (mkfs.gfs2 -p lock_dlm -t ..... -j3 ....)
- Editieren der /etc/fstab (auf allen Knoten) um das Volume beim Systemstart einhängen zu können (/dev/....../.... /mnt/... gfs2 defaults,noatime,nodiratime 0 0)
- Speicher in der Proxmox-Web-GUI als "Verzeichnis" hinzugefügt (Versuch als LVM hinzuzufügen scheiterte)
- Dienste dlm and lvm2-cluster-activation aktiviert. Per Voreinstellung sind diese nicht aktiviert (systemctl enable ...)
Bezüglich LVM2 (early-activation and activation) tauchen Fehlermeldungen ("failed") während des Startvorgangs auf.
Um die Fehlermeldung des lvm2-activation Dienstes zu unterbinden, habe ich diesen deaktiviert, da trotz der Fehlermeldung alle LVMs verfügbar waren.
"LVM2-early-activation failed" taucht weiterhin auf. Diesbezüglich muss ich noch suchen, .....
Auch nach Upgrade auf 4.4 läuft der Cluster soweit. Die Maschinen lassen sich ohne Probleme auch online migrieren. Auch ein Neustart eines Knotens, z.B. zur Durchführung von Firmware-Upgrades, bereitete bisher keine Schwierigkeiten.
Feedback oder Verbesserungsvorschläge sind willkommen ;-)