Ceph Storage (18.2.4) bei 80%

fpausp

Renowned Member
Aug 31, 2010
665
49
93
Austria near Vienna
Mein Ceph Storage ist momentan bei 80%, welcher Grad an Befüllung wird denn empfohlen und wie pflegt man den Storage am Besten, oder reicht es einfach die PVEs upzudaten?

1745663942413.png
 
Last edited:
Mein Ceph Storage ist momentan bei 80%, welcher Grad an Befüllung wird denn empfohlen
Ich empfehle immer maximal 80%. Also würde ich bei dir langsam an die Beschaffung neuer Disks denken.
und wie pflegt man den Storage am Besten, oder reicht es einfach die PVEs upzudaten?
Ceph updatest du automatisch mit. Siehst du auch bei Ceph updates, dass dann die noch nicht geupdateten Nodes ein gelbes Kennzeichen bekommen.
 
Naja, diese Aussage ist gar nichts wert.
Am Ende kommt es auf die Anzahl der Nodes und OSDs an.
Wenn du das so pauschal sagen willst dann wäre 66% richtig.
Wenn man bei einem 3 Node Setup mit der temporären Degradierung leben kann, wenn ein Node mal weg ist, dann reicht theoretisch die Kapazität der größten OSD.
 
Schön langsam steigt der Puls:

1745750982515.png

Ich versuche Platz zu schaffen, kann aber keine Maschinen mehr löschen...

P.S. über die CLI gings dann mit qm destroy ...
 
Last edited:
Maschinen löschen hat nix mit der Poolbefüllung zu tun. OSD Nearfull ist noch nicht so schlimm, aber da sollte man sich mal alle OSDs anschauen.
 
Naja, diese Aussage ist gar nichts wert.
Am Ende kommt es auf die Anzahl der Nodes und OSDs an.
Wenn du das so pauschal sagen willst dann wäre 66% richtig.
Ja, für eine präzisere Aussage müsste der TE mal auflisten was je Node an OSDs verfügbar ist.
 
Aber 1/3 ist generell schon mal falsch, zumindest wenn es um die Anzeige geht, vom Screenshot.
Und selbst wenn man 1/3 vom Brutto benutzt ist man bei klassischem Poolsetting zu 100% voll.
Mit Erasure Coding sieht das wieder anders aus, aber da hat man auch mehr als 3 Nodes.
 
OK, über CLI oder GUI, wie prüft man das?

View attachment 85486
Wenn das ein 3 Node Setup ist, dann ist ja alles fein.

Du hast 3,8 TB Nutzdaten mit 3fach Replikation 11TB verbraucht und noch 6,4 TB von 17TB frei. Ist die Meldung mit dem .mgr Pool noch da?
 
Last edited:
Wie kann man den Ceph Storage, überwachen damit man frühzeitig gewarnt wird?
Entweder ein Monitoringsystem wie Checkmk oder Zabbix nutzen oder du guckst selbst regelmäßig auf die GUI.
 
  • Like
Reactions: gurubert
ID und Host ist ja klar.
Used, ist die Befüllung in GB und Avail genauso wieviel frei ist.
WR OPS sind die derzeitigen Write I/O und daneben wie viel Daten das sind.
RD OPS sind die Read I/O und Datenmenge.
State ist einfach der Status.