Muss ich danach den Wert wieder deaktivieren?
Ja. Entweder aus dem config file raus nehmen oder über injectargs auf false setzen. Wahrscheinlich muss die OSD neu gestartet werden.
Bezüglich der gestorbenen Node, muss die OSDs (auch die eine gestorben OSD wahrscheinlich aus) und die Node selbst aus der Crush map rauslöschen, damit Ceph sie nicht mehr kennt, und aus dem PVE Cluster werfen.
OSD aus der Crushmap löschen:
Code:
ceph osd crush remove {name}
Bucket (host ist ein bucket) aus der Crushmap löschen:
Code:
ceph osd crush remove {bucket-name}
Du siehst unter Node -> Ceph -> Configuration auf der rechten Seite die Crushmap. Bei den Buckets startet alles beim "root default" Bucket. In einem einfachen Ceph cluster sind hier die Hosts gelistet. In den einzelnen Host Buckets sind dann die jeweiligen OSDs gelistet, die in diesem Host sind.
Soviel zum Aufräumen auf Ceph Seite. Auf der Proxmox VE Seite musst du auch ein bisschen was machen wegen der Toten Node die neu aufgesetzt wird. Waren VMs auf dieser Node? Falls ja, hat HA die schon auf einer anderen Node gestartet oder werden sie in der GUI immer noch auf der toten Node angezeigt?
Du kannst die Configs der VMs manuell auf eine andere Node schieben. Unter
/etc/pve/nodes/<node>/qemu-server
bzw. am Ende im Ordner
lxc
für Container liegen die Config files. Du kannst diesen Ordner auf jeder Node ansehen, da er im gesyncten pmxcfs liegt. Um einen Gast nun
manuell ohne Checks auf eine andere Node zu schieben, kannst du die Konfigurationsdatei einfach mit einem
mv
in den passenden Ordner einer anderen Node schieben.
Dann kannst du die Node aus dem
Cluster löschen:
Lass dir mit
pvecm nodes
anzeigen, welche Nodes da sind und wie sie heißen. Dann mit
pvecm delnode <node>
löschen. Mitunter musst du dann noch den
/etc/pve/nodes/<node>
Ordner löschen (oder sicherheitshalber nur mal woanders hin
mv
en. Beachte auch den Hinweis in der Dokumentation (vorher verlinkt) dass du bei der neu installierten Node mit dem gleichen Namen und IP wahrscheinlich nach dem Hinzufügen zum Cluster ein
pvecm updatecerts
ausführen musst, damit in der gesyncten known_hosts die richtigen Keys stehen.
Ich nehme an, ihr werdet nach dieser Eskapade auf 3/2 umstellen. Euer Cluster wird dann allerdings ziemlich voll werden und weitere OSDs werden nötig sein. Achtet am besten darauf, dass Ihr die Nodes so gleichmäßig wie möglich mit weiteren OSDs füllt. Im Moment gibt es ein ziemliches Durcheinander, wie viele OSDs eine Node hat und wie groß diese sind. Das führt dazu, dass manche Nodes ein deutlich höheres Weight haben als andere (siehe
ceph osd df tree
). Nodes und OSDs mit höherem Weight bekommen mehr Daten und damit auch meistens mehr Last ab, was zu Flaschenhälsen führen kann.