Ceph cluster wurde full -> immer mehr OSDs sind down/out

fips

Renowned Member
May 5, 2014
178
10
83
Hi,

habe leider beim zurückspielen einer VM übersehen, das mein 3er Ceph Cluster schon an der 80% Grenze war, darauf haben die ersten OSDs gesagt sie sind full.
Dann sind allerdings immer mehr OSD down.

Jetzt sind auf einem Node schon alle OSDs down...
Etwas löschen kann ich nicht da das full flag gesetzt ist.

Was kann ich jetzt tun?
 

Attachments

  • Bildschirmfoto 2017-08-04 um 14.11.11.png
    Bildschirmfoto 2017-08-04 um 14.11.11.png
    297 KB · Views: 11
Die einfachste Variante ist mehr OSDs hinzuzufügen, bis der Status auf "near full" steht. Oder die Schwellwerte anzupassen, dafür ist aber vielleicht nicht mehr genug freier Platz verfügbar.

Beispiel:
Code:
# ceph tell mon.* injectargs "--mon_osd_nearfull_ratio .88"
# ceph tell mon.* injectargs "--mon_osd_full_ratio .98"