1. This site uses cookies. By continuing to use this site, you are agreeing to our use of cookies. Learn More.

Ceph Crash recovery

Discussion in 'Deutsch' started by Toranaga, Aug 11, 2017.

  1. Toranaga

    Toranaga New Member

    Joined:
    Jun 17, 2017
    Messages:
    2
    Likes Received:
    0
    Hallo zusammen,

    ich bin gerade am Testen Proxmox 4.4 HA mit Ceph Hammer. Das ganze im 3 Node Cluster. Derzeit bin ich bei Crash Tests. Da ich kein Ceph-Forum gefunden habe, probiere ich es mal hier.

    Die Einstellungen des RBD sind 3/2 bzw. 3/1.
    Dabei fiel auf: Wenn 2 der 3 Nodes down sind, reagiert Ceph quasi überhaupt nicht mehr. Es hagelt bei "ceph status" massig Fehlermeldungen über nicht erreichbare Nodes. Es wird eigentlich kein Befehl wirklich angenommen. Das ist bei der Einstellung 3/2 nicht weiter überraschend, aber bei 3/1 hat es mich doch etwas verwundert.

    Ein Versuch die zwei fehlenden Nodes neu zu installieren und dem Cluster und Ceph wieder hinzuzufügen hat nicht funktioniert. Proxmox hatte der Cluster wieder gefunden, aber bei Ceph kam ich nicht weiter. Schon die MON Erstellung funktioniert nicht fehlerfrei.

    Es stellt sich also die Frage wie man bei einem GAU das 2 von 3 Nodes weg sind, den letzten Node soweit online bringt, dass man im Cluster die fehlenden Nodes durch neue Installationen der alten Maschinen, mit oder ohne Übernahme des Inhaltes der OSD, wiederherstellt.

    Hat das schon mal jemand gemacht? Gibt es irgendwo eine Anleitung für solch einen Fall?

    P.S.
    Ja CEPH aka Multiserver-RAID1 in diesem Fall ist kein Backup. Das läuft noch zusätzlich. Aber warum alles neu aufbauen und zurückspielen, wenn es evtl. doch mit einer Reparatur geht. Das soll halt mal probiert werden.

    Vielen Dank im Voraus.
    Gruß
    Andreas
     
  2. fabian

    fabian Proxmox Staff Member
    Staff Member

    Joined:
    Jan 7, 2016
    Messages:
    1,975
    Likes Received:
    219
    bei Ceph muss die mehrheit (Quorum) der monitore online und miteinander verbunden sein. bei drei monitoren heißt das maximal ein monitor darf ausfallen. wenn mehr als ein monitor dauerhaft weg sind, müssen diese erst händisch aus der monmap entfernt werden, dann der verbleibende monitor gestartet werden (der dann alleine die mehrheit bildet ;)). details gibts in der ceph doku - http://docs.ceph.com/docs/master/ra...p#removing-monitors-from-an-unhealthy-cluster

    Hammer ist im übrigen schon sehr veraltet - unter 4.4 ist Jewel auf jeden fall empfehlenswert.
     
  3. Toranaga

    Toranaga New Member

    Joined:
    Jun 17, 2017
    Messages:
    2
    Likes Received:
    0
    Hallo Fabian,

    perfekt. Das hat geholfen CEPH geradezubiegen. Irgendwie hatte ich diese Seite zwar gesehen, aber den entscheidenden Punkt überlesen. Die Doku ist halt riesig.

    Ich gehe mal davon aus, das jetzt der ganz normale Weg wie bei der Erstinstallation kommt um die anderen Nodes wieder an den Cluster anzuschliessen. Kann man da die eigentlichen OSD auf den kaputten Nodes wiederbeleben oder muss ich sie wirklich mit "ceph-disk zap" leer machen und neu replizieren lassen?

    Und muss ich die Crushmap evtl. noch anpassen?
    Bisher hatte ich nur jeweils eine Platte im Server. Da blieb CEPH keine Möglichkeit woanders als auf den anderen zwei Nodes die Kopie zu speichern.

    Wenn ich nun jeweils 4 OSD auf einem Node habe, muss ich die default Crushmap anpassen oder ist der Default die Replikation auf andere Nodes? Kann ich testen, aber wenn es jemand schon weiß, spart es Arbeit.

    Dank im Voraus.
    Gruß
    Andreas
     
  4. udo

    udo Well-Known Member
    Proxmox VE Subscriber

    Joined:
    Apr 22, 2009
    Messages:
    5,190
    Likes Received:
    77
    Hi Andreas,
    die crushmap brauchst Du für "normale" Sachen nicht anpassen. Normalerweise sollte (und das möchtest Du auch) als failure domain node eingestellt sein. Das heisst deine replicas befinden sich auf anderen Nodes, so dass eine Node ausfallen kann und alles funktioniert weiter (sollte).
    Wäre die failure domain auf osd gestellt, wären mehrere replicas auf einen host möglich (bei mehreren OSDs pro host) und bei einem node-reboot blockt das komplette ceph-system.

    Udo
     

Share This Page