...die 13 PGs habe ich online bekommen, indem ich die beiden blockierenden OSD's des ausgefallenen Knotens n05 als 'lost' markiert habe. Nach einigen Stunden waren dann alle PGs 'active+clean' & ausnahmslos alle VMs und CTs ließen sich starten... NULL Datenverlust; keine Restores nötig ^^ :cool:
rocksdb: IO error...
[EDIT]
nb: auf einem anderen, gesunden ceph cluster bekomme ich dieselbe Meldung...
[EDIT2]
...musste den ceph-mon@.n03 daemon erst stoppen... dann ging's
Hallo Aaron
...vielen Dank für die Hinweise & Links - leider gibt
ceph mon getmap -o /tmp/monmap
ein timeout :-(
[EDIT]
sry - eben gesehen ich muss mit Variante B verfahren - wie du erwähnt hast ^^
Der ceph-mgr daemon läuft:
Der ceph-mon daemon läuft:
dennoch läuft pveceph sowie das proxmox-UI ins Timeout- zB beim Versuch neue Monitore und/oder Manager zu kreieren :-( Vermutlich weil auf /var/run/ceph/ nur ein ceph-mon socket läuft (kein ceph-mgr socket);
...und: Knoten n05 ist tot - die Sys-SSD hat sich verabschiedet (das war wohl auch die urpsrüngliche Ursache der Misere). Damit ist n03 der einzige verbliebene mon :-/
Hallo Falk & alle
Folgendes update kann ich geben:
ich konnte den keyring für die nicht startenden ceph-mgr erstellen:
touch /var/lib/ceph/mgr/ceph-n03/keyring
ceph-authtool /var/lib/ceph/mgr/ceph-n03/keyring --gen-key -n mgr.n03
...und somit läuft auf allen Knoten jetzt ein ceph-mgr-daemon...
...wobei die Situation vor dem Reboot ident war :-/
...wenn damit zB ein ceph-mgr@n02 gemeint ist - ja läuft laut systemctl status... Und dennoch sehe ich im GUI keine Manager angeführt :-(
...interessanterweise läuft ja (bis auf n03 und n05) ceph-mgr@n..:
Das hinzufügen eines Monitors oder Managers funktioniert nicht (Timeout) - auch auf der Console läuft zB ein **ceph -s** ebenfalls timeout
Hallo Zusammen
Vielleicht kann mir jemand helfen; mein ceph ist tot & ich kann ihn nicht wiederbeleben :-(
Der betroffene Cluster hat
7 Knoten
2 OSDs je Knoten (1 x HDD, 1 x SSD)
4 Pools: cephfs, hdd-only mit erasure, hdd-only mit 3/2, ssd-only mit 3/2
3 ceph-mon auf n01 n03 n05 (wobei n01...
All right -> apt-dist-upgraded all nodes (including the replacement node) -> added the replacement node to the cluster, installed ceph, wiped (the old) ceph osd disks -> created new osd's -> it's remapping and backfilling -> all looks fine 8-)
again, aaron: tx a lot!!!
Hello all
I have a dead node (system hd went bust) with ceph OSDs and monitor running. The manual describes that the node can be removed and that a new node with same IP and hostname can in fact be added provided it is a fresh PVE install.
However, with ceph, things might be more difficult...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.