Hallo an alle,
musste einen defekten Offsite/secondary-PBS neu installieren, so weit alles gut.
Um relativ schnell wieder alle Namespaces gesynct zu bekommen, habe ich die Funktion
im Sync-Job benutzt.
Soweit alles gut, nun sind alle Namespaces mit den letzten 3 Tagen gesynct.
Nun wollte ich...
Soweit läuft alles sehr gut, würde nur wissen, ob auch die Live-Migration (idente Hardware) am HA-Cluster funktioniert.
Hat da wer damit Erfahrung?
Im Wiki steht, das es NICHT gehen soll...?
Das heutige Update lief nicht so gut, hat da jemand einen Tip?
Oct 19 14:32:48 nod150a12 ceph-crash[1299]: WARNING:ceph-crash:post /var/lib/ceph/crash/2022-10-19T12:19:25.374934Z_de56ee36-46e8-4b5c-8ed2-32e78dde7552 as client.admin failed: (None, b'')
Oct 19 14:32:48 nod150a12 ceph-crash[1299]...
Habe einen 4-Node Ceph-Cluster mit jeweils 5 NVMe´s (6,4TB) installiert.
Ebenfalls einen 3/2er Pool mit 515 pg_nums.
Als freien Speicherplatz am Pool werden mir an einem Node aber nur 40TB angezeigt.
Habe ich was übersehen? (oder ist es einfach nur schon spät.... :rolleyes: )
Anders gefragt...
Hi,
wie ist denn der "korrekte" Ablauf, wenn zB. bei einem 4er-HA-Ceph-Cluster an einem Node eine längere (1 Stunde) Hardwarewartung ansteht, ohne ein Ceph-Recover auszulösen?
Hi,
hatte so einen Fehler noch nie...
Neuinstallation PVE 7.2.1 ISO -> Netzwerkkonfiguration -> Hostname (FQDN) -> da gebe ich (abgeändert) n123a1.domain.at ein und bekomme folgende Fehlermeldung:
"Hostname does not look like a fully qualified domain name."
Leider gehts dann nicht weiter...
parameter verification errors
keep-last: datastore prune settings have been replaced by prune jobs
Die vormaligen Settings sind verschwunden. Was hat sich da geändert?
Edit: Wo sind nun die "neuen" prune jobs zu konfigurieren?
Habe in einem Ceph-Cluster seit dem Upgrade auf 7.2 ab und zu folgende Einträge im syslog:
pmxcfs[2817]: [status] notice: received log
Was bedeutet das im Detail?
lg
Hallo,
habe folgendes problem:
Cluster mit 3 Nodes & einem PBS.
Wenn ich jetzt zB. einen PBS-Datastore eingerichtet habe inkl. einen täglichen Backupjob (Clusterübergreifend), dann starten die Nodes gleichzeitig ein Backup.
Wie kann ich das limitieren, dass die Nodes nicht parallel das Backup...
Hallo an alle,
vielleicht sehe ich den Wald vor lauter Bäume nicht:
Ich würde gerne zu einen bestehenden 3-Node-Ceph-Cluster einen zusätzlichen Node ohne Ceph zwecks Replikation hinzufügen.
Geht das überhaupt? Dieser sollte als Ausfallnode dienen, sollte der komplette 3er-Cluster ausfallen.
lg
Kann mir wer die Bedeutung folgender Logeinträge erklären?
Diese treten immer nach einem reboot eines Nodes auf:
Dec 14 17:50:45 c01-n03 ceph-osd[3191]: 2021-12-14T17:50:45.729+0100 7f064c89df00 -1 osd.7 3318 log_to_monitors {default=true}
Dec 14 17:50:45 c01-n03 ceph-osd[3191]...
Einer unserer Nodes hat plötzlich den geist aufgegeben:
Vom betroffenen Node:
Dec 10 12:52:21 c01-n03 ceph-osd[3327]: 2021-12-10T12:52:07.932+0100 7face6838700 -1 osd.8 3000 heartbeat_check: no reply from 10.20.1.222:6806 osd.5 since back 2021-12-10T12:52:20.392101+0100 front...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.