Hallo zusammen,
nachdem ich einen SSD-Pool zu meinem bestehenden HDD-Pool hinzugefügt habe schrumpft der HDD-Pool extrem schnell, so dass vermutlich morgen ein Produktionsausfall bevorsteht.
ursprüngliche Umgebung:
Änderungen vorgestern:
Heute stelle ich erschrocken fest, dass der ursprüngliche HDD-Pool extrem an Größe verliert:
Der neu hinzugefügte SSD-Pool verhält sich jedoch wie erwartet:
(Ach ja, ein Ceph-FS habe ich hier auch noch, das schrumpft genau so: )
Hier die OSD-Konfiguration:
Die Pools:
Der geänderte Teil der Crusmap:
--> Die Rule "replicated_rule" ist die ursprüngliche, mit der ich vor Monaten den Pool "CephPool01" und das "CephFS01" angelegt habe. Hier habe ich vorgestern nur "class hdd" ergänzt
--> Die Rule "replicated_rule_ssd" habe ich vorgestern neu angelegt, und dann den Pool "CephPool_SSD" erstellt.
Ceph-Dashboard:
Fragen:
Warum verringert sich der Speicherplatz im alten HDD-Pool ("CephPool01"), obwohl ich pro Node eine OSD hinzugefügt habe und diverse VMs aus dem HDD-Pool in den SSD-Pool verdschoben habe?
Wie kann ich verhindern, dass der Cluster im Kürze stehen bleibt?
Hätte ich, nachdem ich die Crusmap geändert habe, den alten HDD-Pool löschen und neu anlegen müssen? (Das wäre sehr aufwändig...)
Ich bedanke mich schon einmal für alle Tipps vorab!!!
LG
Goro
nachdem ich einen SSD-Pool zu meinem bestehenden HDD-Pool hinzugefügt habe schrumpft der HDD-Pool extrem schnell, so dass vermutlich morgen ein Produktionsausfall bevorsteht.
ursprüngliche Umgebung:
- 3-Node-Hyper-Converged-Cluster, (PVE Vers. 6.3-6) mit verteiltem Ceph (Vers. 14.2.16)
- 2 HDDs pro Node
- (natürlich plus einer System-Disk...)
- Ceph-Health: grün
Änderungen vorgestern:
- Pro Node wurde eine SSD hinzugefügt.
- Die OSDs wurden angelegt.
- Die Crushmap wurde angepasst: (Screenshot s.u.)
- Die Rule, mit der der ursprüngliche HDD-Pool erstellt wurde, wurde um "step take default class hdd" erweitert.
- Eine neue Rule mit "step take default class ssd" wurde angelegt.
- Ein neuer SSD-Pool wurde auf Basis der neuen SSD-Rule angelegt.
- Die virtuellen Disks der VMs wurden von dem HDD- auf den SSD-Pool verschoben.
- Performance der VMs nun mehr als ausreichend.
- Ziel erreicht (dachte ich, das war vorgestern.)
Heute stelle ich erschrocken fest, dass der ursprüngliche HDD-Pool extrem an Größe verliert:
Der neu hinzugefügte SSD-Pool verhält sich jedoch wie erwartet:
(Ach ja, ein Ceph-FS habe ich hier auch noch, das schrumpft genau so: )
Hier die OSD-Konfiguration:
Die Pools:
Der geänderte Teil der Crusmap:
--> Die Rule "replicated_rule" ist die ursprüngliche, mit der ich vor Monaten den Pool "CephPool01" und das "CephFS01" angelegt habe. Hier habe ich vorgestern nur "class hdd" ergänzt
--> Die Rule "replicated_rule_ssd" habe ich vorgestern neu angelegt, und dann den Pool "CephPool_SSD" erstellt.
Ceph-Dashboard:
Fragen:
Warum verringert sich der Speicherplatz im alten HDD-Pool ("CephPool01"), obwohl ich pro Node eine OSD hinzugefügt habe und diverse VMs aus dem HDD-Pool in den SSD-Pool verdschoben habe?
Wie kann ich verhindern, dass der Cluster im Kürze stehen bleibt?
Hätte ich, nachdem ich die Crusmap geändert habe, den alten HDD-Pool löschen und neu anlegen müssen? (Das wäre sehr aufwändig...)
Ich bedanke mich schon einmal für alle Tipps vorab!!!
LG
Goro
Attachments
Last edited: