Ceph cluster wurde full -> immer mehr OSDs sind down/out

fips

Renowned Member
May 5, 2014
175
7
83
Hi,

habe leider beim zurückspielen einer VM übersehen, das mein 3er Ceph Cluster schon an der 80% Grenze war, darauf haben die ersten OSDs gesagt sie sind full.
Dann sind allerdings immer mehr OSD down.

Jetzt sind auf einem Node schon alle OSDs down...
Etwas löschen kann ich nicht da das full flag gesetzt ist.

Was kann ich jetzt tun?
 

Attachments

  • Bildschirmfoto 2017-08-04 um 14.11.11.png
    Bildschirmfoto 2017-08-04 um 14.11.11.png
    297 KB · Views: 11
Die einfachste Variante ist mehr OSDs hinzuzufügen, bis der Status auf "near full" steht. Oder die Schwellwerte anzupassen, dafür ist aber vielleicht nicht mehr genug freier Platz verfügbar.

Beispiel:
Code:
# ceph tell mon.* injectargs "--mon_osd_nearfull_ratio .88"
# ceph tell mon.* injectargs "--mon_osd_full_ratio .98"
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!