So, endlich Zeit gefunden.
Tatsächlich war der "Trick" der mir nicht mehr einfiel folgender:
Mit ceph-volume lvm list <OSD device> bekommt man alle Details über das Device
Und da steht unter [db] ganz klar, welche Partition verwendet wurde.
Das habe ich in dem IBM Artikel wiedergefunden...
Nein, leider nicht. Bei jeder OSD die eine separate DB Partition nutzt, bekomme ich diese Fehlermeldung.
Ist es möglich, dass die Partitionen nicht via LVM genutzt werden?
Danke erstmal. Leider hilft mir das nicht so richtig weiter. Wie oben zu sehen ist, ist zwar in der Liste oben block und db aufgeführt, aber da steht nur das Device und nicht die Partition, denn wir haben in jedem Server eine SSD, die über je eine Partition pro HDD OSD verfügt.
Wenn ich db...
Moin zusammen
Nachdem eine HDD OSD bei uns ausgefallen ist und es ewig her ist, das ich da mal was tauschen musste, finde ich es leider nicht mehr raus:
Die HDD OSD nutzt eine Partition auf einer SSD als WAL/DB Device. Ich finde aber nicht mehr heraus, welche der Partitionen auf dem Host...
SMART sagt, alles ist fein. Aaaaaber in den letzten Tagen sind noch mehr scrub Error aufgetreten und in ALLEN war OSD 14 beteiligt. Ein blick ins Kernel LOG zeigte folgendes:
critical medium error, dev sdd, sector 49197368 op 0x0:(READ) flags 0x0 phys_seg 64 prio class 0
[905890.435728] sd...
So, ich war die ganze Zeit über krank. Jetzt muss ich das nochmal von vorn aufrollen.
Ich brauche da mal einen kleinen Schubser: Wie zur Hölle bin ich an den o.a. Log Eintrag gekommen? Ich finde den nicht wieder :oops:
Zur Frage: Nein, dies war die einzige Meldung zu diesem Scrub. Mittlerweile...
Hallo zusammen
Scheinbar ist eine PG in unserem Ceph Storage defekt. Sie lässt sich auch nicht reparieren.
Die Logmeldung aus einem deep-scrub sieht wie folgt aus:
2024-09-17T16:12:44.448753+0200 osd.0 [ERR] 7.1aa soid 7:55a66cb1:::rbd_data.500bf7d81c73b3.000000000003a216:head : data_digest...
Danke erstmal. Entfernen lies sich der Monitor Node. Aber er lässt sich nicht neu installieren. Ich bekomme die Meldung das die IP bereits in Verwendung ist. Ich vermute, da ist doch noch irgendwo ein Rest konfig vom Monitor, evtl im pvecfs?
Das hat erstaunlich gut geklappt.
Server neu installieren
Alle Netzwerkverbindungen wiederherstellen
Alten Server wie im Wiki beschrieben aus dem Cluster entfernen
Neuen Server über die Join Informationen in den Cluster aufnehmen
Ceph auf dem neuen Node installieren
Ggf. Manager neu einrichten...
Super, vielen Dank. Das werde ich testen.
Vor Jahren hat das Reaktivieren bestehender OSDs auf neuen Installationen nicht wirklich geklappt. Aber möglicherweise hat sich das mit den Updates über die Jahre verbessert.
Hallo zusammen
Vorhin ist uns in unserem 6 Node Cluster ein Node ausgefallen, da sich die OS SSD verabschiedet hat. Die VMs haben wir auf dem Rest des Clusters wieder gestartet.
Da der Node aber auch Teil des Ceph ist, überlege ich jetzt, wie das sinnvollste Vorgehen aussieht.
Auf dem Server...
Hi all
Lately i've been struggling with our DHCP Server.
I'm running an isc-dhcp server on a debian VM. This VM has a network interface on vlan 104 (user net) and on vlan 101 (server net). Communication on vlan 104 is working, to all devices on vlan 104 (ping) without issues.
BUT if my PC, or...
:D :P Ich finds ja gut. So sieht man auch mal, wie andere damit umgehen. Da kann man nur lernen.
Hmm jaein... Ich würde mir das so vorstellen:
Der Pool zeigt den gesamten Speicherplatz aller beteiligten OSDs als RAW Value an. Z.B. 100TB Wenn ich dann 2 Pools habe, geht halt vom verfügbaren...
Uff, mehr Diskussion als ich erwartet hatte :p:D
Also wir nutzen schon seit vielen Jahren Ceph als Storage backend und ich muss sagen, dass mir dieses Verhalten vorher noch nie aufgefallen war.
Ich persönlich finde es am konsistentesten wenn die Größe des Pools einfach der Summe des...
Hallo zusammen
Ich habe unseren SSD Pool ein wenig aufgeräumt und dabei ist mir aufgefallen, dass die Gesamtgröße des Pools variiert, je nachdem wie voll der Pool ist.
Wie kann das sein? Die Datenträger haben doch eine fixe Größe unabhängig davon wie viele Daten gespeichert sind.
In älteren...
I confused something. We had an incident where the OS disk of a Server died. This was, when the VMs were down and we got them up on another node in 10min.
When a DB/WAL SSD died, the VMs were not down, but we needed to shut down the Server to replace the NVME Drive, so we live migrated the VMs.
While we had our fair share of Problems with Ceph in the past, mostly due to inexperience, what would bite us? I mean in terms of storing our data reliably und running consistently?
That's a valid point. Good thing is, our new cluster isn't set in stone yet. It's probably a good idea, to assess...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.