Search results

  1. C

    Proxmox PGs

    Hallo, ich habe aktuell einen Ceph Pool auf PVE 7 mit Size/min 3/2 und 15 OSD. Der PG Autoscaler ist aktiviert, jedoch sind die OSD ziemlich unregelmäßig gefüllt. Ich habe 3.84TB NVMes mit einer weight von 3.49309 und 7.68TB NVMes mit einer weight von 6.9863, dabei ist die eine z.B. zu 68%...
  2. C

    Ceph OSD Crashed

    Werde ich machen, danke :) Also würde sich im meinem Fall bei den vielen Nodes (mehr als 20) ja eigentlich K=8 und M=3 eher lohnen als K=4 M=2, richtig?
  3. C

    Ceph OSD Crashed

    Vielen dank für die ausführliche Anleitung @aaron :) Ja die ersten wichtigen VMs haben wir bereits über die Config auf andere Systeme verschoben. Im nächsten Zug steht dann eigentlich das Update von Ceph sowie Proxmox auf die neueste Version an, PVE6to7 sollte ja kein Problem darstellen. Mit...
  4. C

    Ceph OSD Crashed

    Okay, bei den letzten PGs hat jetzt auch alles geklappt, leider ist, wie der Zufall es will eine andere Node im Cluster dabei vollständig gestorben, bzw. die Boot - SSDs derer, das replacement hier war für Heute angesetzt, neue SSDs waren auch schon da, nur wegen die Downtime ging hier vor. Das...
  5. C

    Ceph OSD Crashed

    Vielen dank, bei der 6.24 hat es bereits geklappt und sie ist jetzt aktiv. :) Muss ich danach den Wert wieder deaktivieren? ceph tell osd.<OSDID> injectargs '--osd_find_best_info_ignore_history_les=false' Die nächsten PGs bleiben nämlich trotzdem inactive, obwohl ich hier in dem Fall die OSD...
  6. C

    Ceph OSD Crashed

    Die scheinen sich da leider auch nicht mehr auszukennen, und sitzen jetzt auf heißen Kohlen um schnellstmöglich vom 2/1 bei ihren clustern runter zu kommen. ceph-objectstore-tool --data-path dev/osd2 --journal-path dev/osd2.journal --pgid 6.4cb --op mark-complete ceph pg 6.4cb mark_unfound_lost...
  7. C

    Ceph OSD Crashed

    Leider bin ich immer noch nicht weiter gekommen, habe nun versucht die PG 6.24 neu zu erstellen, jedoch passiert dann nichts, beim erneuten Ausführen des Befehls erscheint pg 6.24 is already creating
  8. C

    Ceph OSD Crashed

    Danke für den Link, weißt du rein zufällig, wie man das "objectstore-tool" für die Größe der PG anwendet? Das steht leider nicht dabei. So sähe meine Ausgabe für die pg 6.24 beispielsweise aus: PG_STAT OBJECTS MISSING_ON_PRIMARY DEGRADED MISPLACED UNFOUND BYTES OMAP_BYTES* OMAP_KEYS* LOG...
  9. C

    Ceph OSD Crashed

    Gibt es einen Befehl, um z.B. "detail": "peering_blocked_by_history_les_bound" durchzuführen, oder die inaktiven PGs gänzlich zu löschen? Da ja nur 0.342% pgs inaktiv sind, sollten die die fehlenden Objekte in Grenzen halten?
  10. C

    Ceph OSD Crashed

    Hallo Aaron, der Ceph Pool ist mit 2/1 konfiguriert, lief auch seit mehreren Jahren problemlos durch, das wurde mir damals von mehreren Kollegen empfohlen, eine einzelne NVMe ist ja eigentlich schnell synchronisiert. ceph -s: cluster: id: 3f123408-3bcb-45d4-8ecf-2e49f329ddf0...
  11. C

    Ceph OSD Crashed

    Hallo, in der Nacht ist eine OSD meines Ceph Clusters komplett "abgeraucht" und ließ sich nicht mehr ansteuern. Nun habe ich das Problem, dass ich 3pgs inactive und 7pgs incomplete habe. Diese PGs blockieren aktuell jegliche IO im Cluster, alle VMs sind somit down. Was kann ich nun tun...
  12. C

    pve-bridge failed with status 256

    Der Spiegelserver ist in der /etc/apt/sources.list.d/pve-enterprise.list eingetragen. Installiert wurde Proxmox damals nach dieser Anleitung: https://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_Stretch
  13. C

    pve-bridge failed with status 256

    Es gab einen Stromausfall im Rechenzentrum .. dann wollte Proxmox wegen einem defekten Dateisystem nicht mehr starten, also wurde ein fsck ausgeführt, danach kam dann das Problem, vor dem Stromausfall und plötzlichen Neustart starteten die Server ja ohne Problem.
  14. C

    pve-bridge failed with status 256

    Da scheint wohl etwas gewaltig schief zu laufen: root@***:~# debsums qemu-server Cannot find md5sums path for qemu-server Edit: Neuinstallation klappt hier auch nicht: root@***:~# apt install --reinstall qemu-server Reading package lists... Done Building dependency tree Reading state...
  15. C

    pve-bridge failed with status 256

    Hallo, nach einem Dateisystem Fehler musste ich einen fsck durchführen, damit Proxmox wieder startete, seitdem ist es mir nicht mehr möglich die Proxmox KVM Server mit dem Netzwerk zu starten. Entferne ich das Netzwerk aus den VMs starten diese wieder. Es sieht nach einem Fehler mit der Bridge...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!