Hallo,
unter "Host/Updates" gibt es den Button "Changelog".
Bei den Debianpaketen funktioniert es auch ohne Probleme.
Wenn ich den Button bei den Proxmoxänderungen betätige bekomme ich die Fehlermeldung:
E: Failed to fetch...
We have the same problem after release upgrade to Proxmox 8.0.3 and ceph 17.2.6. Every 10 minutes in syslog on each node a message. On another cluster with Proxmox 7.4.15 and a ceph 17.2.6 there is not this problem.
We had the same problem after update ceph 17.2.0 to 17.2.1. with two Ceph-Clusters. The parameter
mon_cluster_log_file_level = info
not work after update.
The only thing that helped us was:
I set in /etc/pve/ceph.conf
[GLOBAL]
mon_cluster_log_to_file = false
and restart...
Ja, die Defaults werden verwendet. Die Optionen bluestore_cache_* wurden mit der Version 13.2.3 obsolet:
Die Option osd_memory_target muss ich mir jetzt ansehen in Bezug auf einen Wert für nvme.
Du hattest recht mit dem Fehler: FAILED ceph_assert(mem_avail >= 0).
Hallo Mira,
ich habe einmal die osd.19 neu gestartet.
Im Anhang ein Ausschnitt aus der Logdatei.
Mit der osd.23 kann ich es nicht machen, da diese nicht greifbar ist.
Könnte dies ein Hinweis auf das Problem sein:
ceph-volume-systemd.log
Ja, das Erstellen funktioniert.
Aber die Aktivierung nicht. Im ceph.log sehe ich nur:
Im Anhang zwei Monitor Log Dateien verkürzt.
Ich kann in keinem der vier Montiorlogs den Wert prioritycache finden.
Ich habe das Debugging aktiviert.
Hier das Log im Anhang von der zu aktivierenden Platte während der Erstellung. Wenn sonstige Dateien benötigt werden, einfach schreiben.
Danke.
Hallo Mira,
das Problem tritt immer auf. Ich bekomme die NVME nicht mehr in das Cluster.
Nur zur Sicherheit, das Debuggung aktiviere ich in der ceph.conf und dort unter:
Den Wert debug prioritycache kann ich in der Liste nicht finden.
Vielen Dank.
Hallo,
ich möchte eine osd wieder aktivieren.
Dabei wird folgender Fehler ausgegeben und ich komme nicht weiter:
Wie umgehe ich den Fehler "read_fsid unparsable uuid"?
Vielen Dank für eure Hilfe.
Solved with:
In der ceph.conf die Optionen bluestore_cache_* entfernt.
Remove option in...
Hallo,
nach dem Upgrade auf pve7 und ceph 16.2.5 erhalte ich täglich vielfach folgende Warnung:
Nun stellt sich mir die Frage, ob ich auf 'mixed' oder 'control-group' umstellen kann, die Warnung ignoriert werden soll oder durch ein Proxmox-Update bereinigt wird?
Vielen Dank für eure Hilfe...
Enters the following two commands at the command line:
ceph osd getcrushmap -o crushmapdump
crushtool -d crushmapdump -o crushmapdump-decompiled
and post the contents of the file "crushmapdump-decompiled".
Hallo Sycoriorz,
vielen Dank für die Rückmeldung.
Nach meinen Erfahrungen ist das überhaupt kein Problem. Corosync ist da viel anfälliger, Ceph ist rockstabil und ehrlich, wie oft, ausser bei einem Test werden während der Produktion die VMs auf einen anderen Knoten verschoben. Bei einer...
Kurze Rückmeldung:
Der Arbeitsspeicher ist kein Problem. --OK
Onboard 1x10GB PVE Frontend und Livemigration max 1.250 MB/s --> Warum nimmst du nicht die Livemigration mit in das 100GB-Netz und fasst alle 10GB Interfaces zusammen?
Vorschlag:
Mellanox 5 MCX566A-EACT 1x 100GB Livemigration...
Aber langsam, du müsstest uns sagen wieviele Platten du in jedem Server hast und wie diese im ceph konfiguriert sind. Außerdem, wie du das Full-Mesh aufgebaut hast (eine oder mehrere 100GB Karten), was machst du mit dem 1GB Port und mit den 2x10GB auf dem Board?
Wieviel Ram ist verbaut, was ist...
Das Hauptproblem sollte damit erledigt sein.
Auf der VM-Netzwerkkarte kannst du noch den Wert für "Multiqueue"= erhöhen und einen Test fahren (siehe Hilfe).
Ich habe keine Erfahrung im Full-Mesh Betrieb, du kannst die Netze für cluster_network und public_network in ein extra VLAN packen, für...
Hallo,
nur eine Frage zu ceph. Nach dem Upgrade zu octopus habe ich einen neuen Pool device_health_metrics mit der Größe von 1 pg. Ceph läuft ohne Probleme mit overall HEALTH_OK.
Da ich keine Dokumentation dazu finde:
Soll dieser Pool immer bestehen bleiben oder ist es besser diesen zu löschen...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.