Search results

  1. K

    Ceph: 1 PG bleibt dauerhaft auf active+clean+remapped stehen

    Leider komme ich bei meinem geschilderten Problem nicht weiter. Gibts noch Ideen?
  2. K

    Ceph: 1 PG bleibt dauerhaft auf active+clean+remapped stehen

    Sehr strange. Der repair Befehl auf der PG abgesetzt versucht etwas auf osd.17 zu reparieren, obwohl doch eigentlich 12 betroffen ist ... 2022-03-21T14:43:35.885425+0100 osd.17 (osd.17) 744 : cluster [DBG] 3.1e8 repair starts 2022-03-21T14:43:36.063269+0100 mgr.Prox2 (mgr.72564295) 217579 ...
  3. K

    Ceph: 1 PG bleibt dauerhaft auf active+clean+remapped stehen

    Oh, sorry. Hehe. Das war wohl der Google Autotranslate der versucht hat engliche texte auf Deutsch zu übersetzen. Wobei der englisch garnicht übersezen soll. Der hat das gepostete im Input versucht zu übersetzen. Min size es Pools auf 1 finde ich nciht so prickelnd. Ich versuche dann erstmal...
  4. K

    Ceph: 1 PG bleibt dauerhaft auf active+clean+remapped stehen

    Was sagt "ceph pg dump | grep remapped"?: root@Prox1:~# ceph pg dump | grep neu kartiert alle gedumpt 3.1e8 1721 0 0 1721 0 5726963712 0 0 1620 1620 active+clean+remapped 2022-03-21T06:55:57.873442+0100 22232'26671189...
  5. K

    Ceph: 1 PG bleibt dauerhaft auf active+clean+remapped stehen

    Wie im Titel schon geschrieben: 1 PG bleibt dauerhaft auf active+clean+remapped stehen Ceph Status ist aber auf Health_OK Zuvor habe ich auf jeder der 3 Nodes eine weitere OSD hinzugefügt und danach die Anzahl der PG´s auf 1024 erhöht. Seitdem steht rechts untr PG´s in gelb...
  6. K

    Proxmox als Homeserver mit IPv6 ( Glasfaser ) und mehreren VMs ( Ports ) und Reverse-Proxy möglich?

    Wenn Du Zeit und Lust hast, schreib uns doch eine kurze Anleitung. Deine Lösung klingt sehr interessant finde ich
  7. K

    Migration ESX -> PVE, extrem langsame VM-Performance

    Ich würde auch mal in Richtung Treiber Deiner Thunderbolt Nics suchen. Eine Latenz von 3 Sekunden liegt meiner Meinung nach eher im Netzwerk als im System selbst. Hatte ich letztens auch und bei mir war es ein Mac Adressen Konflikt im Netz. 2 NICs hatten die identische MAC. Nachdem ich...
  8. K

    [SOLVED] Mit Internet Verbunden aber keine Verbindung zu dem Server

    Ich denke Du solltest dem Support mehr Informationen mitteilen. Wo steht der Server - wo steht Dein client. Seid ihr im selben Netz? Hast Du physikalischen zugriff auf den Server /Terminal/Console/IPMi? Wenn auch kein SSH geht: Kannst Du den Server normal pingen? Hast Du irgendwo eine...
  9. K

    Ceph: Autoscaler auch einsetzbar wenn man unterschiedlich große OSDs hat?

    Danke für Deine Antwort. Wenn ich Deine OSD.0 sehe hast Du dort 33,55% Auslastung und Deine OSD.7 hat bereits 78,86% Das ist eine "Unwucht" von 45% - außerdem bist Du bei der osd.7 kurz for 80%. Das könnte zu Problemen führen. Ich sehe auch dass Deine erste Node große Platten hat und die beiden...
  10. K

    Ceph: Autoscaler auch einsetzbar wenn man unterschiedlich große OSDs hat?

    Nachdem ich nun meine Auslastung im Pool durch hinzunahme weiterer OSD auf 60% runter gebracht habe (von 80), bin ich versucht den autoscaler zu aktivieren. Nur habe ich irgendwo auf einer Seite gelesen, dass der Autoscaler die Anzahl der PG pro OSD identisch setzt. Da ich 1 TB und 2 TB SSD´s...
  11. K

    Ceph PG count eines Pools muss verringert werden

    Ich wollte nur ein Feedback geben: Ich habe in jedem der 3 Nodes eine weitere OSD eingebaut und konnte problemlos auf 1024 PG gehen. Was ich mich nun aber frage: Der Autoscaler sagt optimale PG wären 512, währen pgcalc 1024 sagt. Wem soll ich nun vertrauen.?
  12. K

    Ceph PG count eines Pools muss verringert werden

    Hi Aaron, Danke für Deinen Ratschlag. Ich werde jetzt erstmal 3 * 2 TB SSD besorgen und damit 3 neue OSDs erzeugen. Dann PG auf 1024 setzen. Da die 3 Server recht leistungsfähig sind, sehe ich kein Performance-Risiko beim Re-Balancing. Ich berichte wenn ich den Vorgang abgeschlossen habe...
  13. K

    Ceph PG count eines Pools muss verringert werden

    Danke für Deinen Rat. Wenn Du im Rechner jetzt aber mal 21 OSD eingibst - so wird es ja sein wenn ich jetzt noch 3 * 2 TB SSD einbaue, dann wird der PG Size von 1024 empfohlen. Mittelfristig will ich alle 1TB durch 2 TB ersetzen. Meinst Du es ist besser jetzt auf 512 zu gehen, dann die 3 neuen...
  14. K

    Ceph PG count eines Pools muss verringert werden

    Hallo Aaron, Die Anzahl der PG ist aktuell 896. Ja ich weiss, es ist kein power_of_two. Was ja auch ein Grund ist, wieso das dringend angepasst werden muss. Der Autoscaler schlägt 512 PG´s vor. Wir hatten damals erhöht, weil 512/18 <30PG/OSD ist und irgendwo stand man soll nicht unter die 30...
  15. K

    Ceph PG count eines Pools muss verringert werden

    Hallo Aaron, ich hab ein wenig Angst in die Situation zu geraten, die in einem anderen Thread beschrieben wurde: The algorithm holds back flipping placement group numbers by only actioning a change when it's more than x 3 out by what it recommends. Whilst this sounds great it does mean that...
  16. K

    Ceph PG count eines Pools muss verringert werden

    Hallo, der autoscaler sagt mir, dass der pg count eines pools verringert werden sollte. Da ich schlimmes über den Automatismus gelesen habe, habe ich den Autoscaler nur auf "warn" stehen, d.h. es darf selbst nichts tun. Nun frage ich mich, wie ich ich den PG Count verringern soll. Also die...
  17. K

    Problem: RDB write waiting time increased to 1000ms since upgrade to PVE7

    Hi Mira, thanks for your reply. Your "rbd showmapped" command helped me a lot. So I had identified the related disks. I backuped the VM´s with this disks, deleted them and reimport VM from backup. Now it seems my problem is gone. Best regards, Kai
  18. K

    Increase osd memory target

    Hi Sean, did you test it?
  19. K

    Memory management: ceph

    Found this on youtube about osd_memory_target: https://www.youtube.com/watch?v=aaMaMMqOk1o greetz, kai
  20. K

    Problem: RDB write waiting time increased to 1000ms since upgrade to PVE7

    I updated from PVE 5 to PVE6 to PVE 7 last weekend, and from CEPH Luminous to Nautilus to Octopus (in the right order). Now i mentioned some warnings in my zabbix server monitoring for one node: Seems, that write response/waiting time on some rdb devices are going up or somthing is...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!