Sehr strange. Der repair Befehl auf der PG abgesetzt versucht etwas auf osd.17 zu reparieren, obwohl doch eigentlich 12 betroffen ist ...
2022-03-21T14:43:35.885425+0100 osd.17 (osd.17) 744 : cluster [DBG] 3.1e8 repair starts
2022-03-21T14:43:36.063269+0100 mgr.Prox2 (mgr.72564295) 217579 ...
Oh, sorry. Hehe. Das war wohl der Google Autotranslate der versucht hat engliche texte auf Deutsch zu übersetzen. Wobei der englisch garnicht übersezen soll. Der hat das gepostete im Input versucht zu übersetzen.
Min size es Pools auf 1 finde ich nciht so prickelnd. Ich versuche dann erstmal...
Wie im Titel schon geschrieben:
1 PG bleibt dauerhaft auf active+clean+remapped stehen
Ceph Status ist aber auf Health_OK
Zuvor habe ich auf jeder der 3 Nodes eine weitere OSD hinzugefügt und danach die Anzahl der PG´s auf 1024 erhöht.
Seitdem steht rechts untr PG´s in gelb...
Ich würde auch mal in Richtung Treiber Deiner Thunderbolt Nics suchen. Eine Latenz von 3 Sekunden liegt meiner Meinung nach eher im Netzwerk als im System selbst. Hatte ich letztens auch und bei mir war es ein Mac Adressen Konflikt im Netz. 2 NICs hatten die identische MAC. Nachdem ich...
Ich denke Du solltest dem Support mehr Informationen mitteilen.
Wo steht der Server - wo steht Dein client. Seid ihr im selben Netz?
Hast Du physikalischen zugriff auf den Server /Terminal/Console/IPMi?
Wenn auch kein SSH geht: Kannst Du den Server normal pingen?
Hast Du irgendwo eine...
Danke für Deine Antwort. Wenn ich Deine OSD.0 sehe hast Du dort 33,55% Auslastung und Deine OSD.7 hat bereits 78,86%
Das ist eine "Unwucht" von 45% - außerdem bist Du bei der osd.7 kurz for 80%. Das könnte zu Problemen führen.
Ich sehe auch dass Deine erste Node große Platten hat und die beiden...
Nachdem ich nun meine Auslastung im Pool durch hinzunahme weiterer OSD auf 60% runter gebracht habe (von 80), bin ich versucht den autoscaler zu aktivieren.
Nur habe ich irgendwo auf einer Seite gelesen, dass der Autoscaler die Anzahl der PG pro OSD identisch setzt.
Da ich 1 TB und 2 TB SSD´s...
Ich wollte nur ein Feedback geben: Ich habe in jedem der 3 Nodes eine weitere OSD eingebaut und konnte problemlos auf 1024 PG gehen. Was ich mich nun aber frage:
Der Autoscaler sagt optimale PG wären 512, währen pgcalc 1024 sagt. Wem soll ich nun vertrauen.?
Hi Aaron,
Danke für Deinen Ratschlag. Ich werde jetzt erstmal 3 * 2 TB SSD besorgen und damit 3 neue OSDs erzeugen. Dann PG auf 1024 setzen.
Da die 3 Server recht leistungsfähig sind, sehe ich kein Performance-Risiko beim Re-Balancing.
Ich berichte wenn ich den Vorgang abgeschlossen habe...
Danke für Deinen Rat.
Wenn Du im Rechner jetzt aber mal 21 OSD eingibst - so wird es ja sein wenn ich jetzt noch 3 * 2 TB SSD einbaue, dann wird der PG Size von 1024 empfohlen.
Mittelfristig will ich alle 1TB durch 2 TB ersetzen.
Meinst Du es ist besser jetzt auf 512 zu gehen, dann die 3 neuen...
Hallo Aaron,
Die Anzahl der PG ist aktuell 896. Ja ich weiss, es ist kein power_of_two. Was ja auch ein Grund ist, wieso das dringend angepasst werden muss.
Der Autoscaler schlägt 512 PG´s vor. Wir hatten damals erhöht, weil 512/18 <30PG/OSD ist und irgendwo stand man soll nicht unter die 30...
Hallo Aaron,
ich hab ein wenig Angst in die Situation zu geraten, die in einem anderen Thread beschrieben wurde:
The algorithm holds back flipping placement group numbers by only actioning a change when it's more than x 3 out by what it recommends. Whilst this sounds great it does mean that...
Hallo,
der autoscaler sagt mir, dass der pg count eines pools verringert werden sollte. Da ich schlimmes über den Automatismus gelesen habe, habe ich den Autoscaler nur auf "warn" stehen, d.h. es darf selbst nichts tun.
Nun frage ich mich, wie ich ich den PG Count verringern soll. Also die...
Hi Mira,
thanks for your reply. Your "rbd showmapped" command helped me a lot. So I had identified the related disks. I backuped the VM´s with this disks, deleted them and reimport VM from backup. Now it seems my problem is gone.
Best regards,
Kai
I updated from PVE 5 to PVE6 to PVE 7 last weekend, and from CEPH Luminous to Nautilus to Octopus (in the right order).
Now i mentioned some warnings in my zabbix server monitoring for one node:
Seems, that write response/waiting time on some rdb devices are going up or somthing is...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.