Wie im Titel schon geschrieben:
1 PG bleibt dauerhaft auf active+clean+remapped stehen
Ceph Status ist aber auf Health_OK
Zuvor habe ich auf jeder der 3 Nodes eine weitere OSD hinzugefügt und danach die Anzahl der PG´s auf 1024 erhöht.
Seitdem steht rechts untr PG´s in gelb "active+clean+remapped 1"
Im Ceph Log läuft das in Sekundentakt durch:
1719 objects misplaced - ohne das sich etwas ändern würde.
Weiterhin auffällig ist die Anzahl der PG´s
Ich habe 2 Pools, der eine ist mein RBD Pool in dem ich alle VM´s habe - er hat 1024 PGs
Der zweite Pool ist der von CEPH angelegte Pool device_health_metrics - der hat 2 PGs. Der Autoscaler ist dort aktiviert und meint optimal wäre 1 PG.
Er hatte auch die ganze Zeit nur 1 PG - offensichtlich hat der Scaler ihn irgendwanna auf 2 PG gebracht.
Ich gehe mal davon aus, dass mein "active+clean+remapped 1" von diesem Pool her rührt.
Kann mir jemand helfen was zu tun ist?
Danke,
Kai
1 PG bleibt dauerhaft auf active+clean+remapped stehen
Ceph Status ist aber auf Health_OK
Zuvor habe ich auf jeder der 3 Nodes eine weitere OSD hinzugefügt und danach die Anzahl der PG´s auf 1024 erhöht.
Seitdem steht rechts untr PG´s in gelb "active+clean+remapped 1"
Im Ceph Log läuft das in Sekundentakt durch:
2022-03-19T18:28:49.824696+0100 mgr.Prox2 (mgr.72564295) 136365 : cluster [DBG] pgmap v137912: 1026 pgs: 1 active+clean+remapped, 1025 active+clean; 5.6 TiB data, 16 TiB used, 9.8 TiB / 26 TiB avail; 3.0 KiB/s rd, 4.6 MiB/s wr, 211 op/s; 1719/5325306 objects misplaced (0.032%)
2022-03-19T18:28:51.826187+0100 mgr.Prox2 (mgr.72564295) 136366 : cluster [DBG] pgmap v137913: 1026 pgs: 1 active+clean+remapped, 1025 active+clean; 5.6 TiB data, 16 TiB used, 9.8 TiB / 26 TiB avail; 1.7 KiB/s rd, 3.6 MiB/s wr, 174 op/s; 1719/5325306 objects misplaced (0.032%)
2022-03-19T18:28:53.829694+0100 mgr.Prox2 (mgr.72564295) 136367 : cluster [DBG] pgmap v137914: 1026 pgs: 1 active+clean+remapped, 1025 active+clean; 5.6 TiB data, 16 TiB used, 9.8 TiB / 26 TiB avail; 2.0 KiB/s rd, 4.4 MiB/s wr, 242 op/s; 1719/5325306 objects misplaced (0.032%)
2022-03-19T18:28:55.831245+0100 mgr.Prox2 (mgr.72564295) 136368 : cluster [DBG] pgmap v137915: 1026 pgs: 1 active+clean+remapped, 1025 active+clean; 5.6 TiB data, 16 TiB used, 9.8 TiB / 26 TiB avail; 3.3 KiB/s rd, 4.3 MiB/s wr, 196 op/s; 1719/5325306 objects misplaced (0.032%)
2022-03-19T18:28:57.833789+0100 mgr.Prox2 (mgr.72564295) 136369 : cluster [DBG] pgmap v137916: 1026 pgs: 1 active+clean+remapped, 1025 active+clean; 5.6 TiB data, 16 TiB used, 9.8 TiB / 26 TiB avail; 6.0 KiB/s rd, 4.0 MiB/s wr, 226 op/s; 1719/5325306 objects misplaced (0.032%)
2022-03-19T18:28:59.836622+0100 mgr.Prox2 (mgr.72564295) 136370 : cluster [DBG] pgmap v137917: 1026 pgs: 1 active+clean+remapped, 1025 active+clean; 5.6 TiB data, 16 TiB used, 9.8 TiB / 26 TiB avail; 16 KiB/s rd, 4.4 MiB/s wr, 233 op/s; 1719/5325306 objects misplaced (0.032%)
1719 objects misplaced - ohne das sich etwas ändern würde.
Weiterhin auffällig ist die Anzahl der PG´s
Ich habe 2 Pools, der eine ist mein RBD Pool in dem ich alle VM´s habe - er hat 1024 PGs
Der zweite Pool ist der von CEPH angelegte Pool device_health_metrics - der hat 2 PGs. Der Autoscaler ist dort aktiviert und meint optimal wäre 1 PG.
Er hatte auch die ganze Zeit nur 1 PG - offensichtlich hat der Scaler ihn irgendwanna auf 2 PG gebracht.
Ich gehe mal davon aus, dass mein "active+clean+remapped 1" von diesem Pool her rührt.
Kann mir jemand helfen was zu tun ist?
Danke,
Kai