Guten Tag zusammen,
zur Zeit arbeite ich mich in die Konfiguration von einem Ceph Clusters als Speicherlösung ein.
Ich habe es auch geschafft ein einfaches Ceph Cluster mit der Standardkonfiguration zu erstellen.
2 Knoten mit identischem Aufbau:
- 2 HDD Festplatten
- 2 SSD Festplatten
-> auf den Festplatten ist jeweils eine OSD
Des weiteren habe ich jeweils eine Crush Rule für jeden Typen erstellt (HDD & SSD).
Diese Crush Rules sehen folgender maßen aus (die andere Regel ist analog zu dieser nur für den anderen Festplattentypen):
rule replicated_hdd {
id 2
type replicated
step take default class hdd-vm-store
step chooseleaf firstn 0 type host
step emit
}
Mit dieser Konfiguration ist mir aufgefallen, dass der resultierende Pool eine Gesamtkapazität von den beiden OSDs hat. Wenn ich im Anschluss eine ISO auf dem Knoten in das CephFS hochlade, dann ist die belegte Speichergröße im Cluster doppelt so viel wie die ISO und auf dem Knoten ist diese identisch der ISO. Diese Beobachtungen signalisieren mir, dass die Daten in dem Ceph Cluster, ähnlich wie bei einem RAID 0, die Daten auf beide Festplatten verteilt. Hier kommt bei mir die Frage der Ausfallsicherheit der Festplatten.
Durch die Replikation in dem Ceph Cluster sollte eine Festplatte bzw. ein kompletter Server (in diesem Cluster) ausfallen können ohne das es zum Datenverlust kommt. Falls eine Festplatte pro Server ausfällt, dann habe ich die Befürchtung, dass es hierbei zu einem Verlust der Gesamten Daten kommt.
Die Speicherarchitektur für dem Konten soll so aussehen, dass bspw. eine OSD auf die andere des gleichen Knotens gespiegelt wird, was im Anschluss dazu auf den anderen Knoten repliziert werden soll. Ist eine solche Architektur mit Ceph möglich und wie kann ich diese umsetzen?
zur Zeit arbeite ich mich in die Konfiguration von einem Ceph Clusters als Speicherlösung ein.
Ich habe es auch geschafft ein einfaches Ceph Cluster mit der Standardkonfiguration zu erstellen.
2 Knoten mit identischem Aufbau:
- 2 HDD Festplatten
- 2 SSD Festplatten
-> auf den Festplatten ist jeweils eine OSD
Des weiteren habe ich jeweils eine Crush Rule für jeden Typen erstellt (HDD & SSD).
Diese Crush Rules sehen folgender maßen aus (die andere Regel ist analog zu dieser nur für den anderen Festplattentypen):
rule replicated_hdd {
id 2
type replicated
step take default class hdd-vm-store
step chooseleaf firstn 0 type host
step emit
}
Mit dieser Konfiguration ist mir aufgefallen, dass der resultierende Pool eine Gesamtkapazität von den beiden OSDs hat. Wenn ich im Anschluss eine ISO auf dem Knoten in das CephFS hochlade, dann ist die belegte Speichergröße im Cluster doppelt so viel wie die ISO und auf dem Knoten ist diese identisch der ISO. Diese Beobachtungen signalisieren mir, dass die Daten in dem Ceph Cluster, ähnlich wie bei einem RAID 0, die Daten auf beide Festplatten verteilt. Hier kommt bei mir die Frage der Ausfallsicherheit der Festplatten.
Durch die Replikation in dem Ceph Cluster sollte eine Festplatte bzw. ein kompletter Server (in diesem Cluster) ausfallen können ohne das es zum Datenverlust kommt. Falls eine Festplatte pro Server ausfällt, dann habe ich die Befürchtung, dass es hierbei zu einem Verlust der Gesamten Daten kommt.
Die Speicherarchitektur für dem Konten soll so aussehen, dass bspw. eine OSD auf die andere des gleichen Knotens gespiegelt wird, was im Anschluss dazu auf den anderen Knoten repliziert werden soll. Ist eine solche Architektur mit Ceph möglich und wie kann ich diese umsetzen?