Search results

  1. M

    Changelog Proxmox Fehler

    Hallo, unter "Host/Updates" gibt es den Button "Changelog". Bei den Debianpaketen funktioniert es auch ohne Probleme. Wenn ich den Button bei den Proxmoxänderungen betätige bekomme ich die Fehlermeldung: E: Failed to fetch...
  2. M

    ceph-crash problem

    We have the same problem after release upgrade to Proxmox 8.0.3 and ceph 17.2.6. Every 10 minutes in syslog on each node a message. On another cluster with Proxmox 7.4.15 and a ceph 17.2.6 there is not this problem.
  3. M

    CEPH 17.2.x reduce Log-Level.

    We had the same problem after update ceph 17.2.0 to 17.2.1. with two Ceph-Clusters. The parameter mon_cluster_log_file_level = info not work after update. The only thing that helped us was: I set in /etc/pve/ceph.conf [GLOBAL] mon_cluster_log_to_file = false and restart...
  4. M

    Proxmox migration to another disk with clonezilla

    or start from usb-stick with https://www.system-rescue.org/
  5. M

    [SOLVED] Ceph recreate osd failed

    Ja, die Defaults werden verwendet. Die Optionen bluestore_cache_* wurden mit der Version 13.2.3 obsolet: Die Option osd_memory_target muss ich mir jetzt ansehen in Bezug auf einen Wert für nvme. Du hattest recht mit dem Fehler: FAILED ceph_assert(mem_avail >= 0).
  6. M

    [SOLVED] Ceph recreate osd failed

    In der ceph.conf die Optionen bluestore_cache_* entfernt. Hier: Vielen Dank für die Hilfe mira.
  7. M

    [SOLVED] Ceph recreate osd failed

    Jetzt mit den Informationen.
  8. M

    [SOLVED] Ceph recreate osd failed

    Hallo Mira, ich habe einmal die osd.19 neu gestartet. Im Anhang ein Ausschnitt aus der Logdatei. Mit der osd.23 kann ich es nicht machen, da diese nicht greifbar ist. Könnte dies ein Hinweis auf das Problem sein: ceph-volume-systemd.log
  9. M

    [SOLVED] Ceph recreate osd failed

    Ja, das Erstellen funktioniert. Aber die Aktivierung nicht. Im ceph.log sehe ich nur: Im Anhang zwei Monitor Log Dateien verkürzt. Ich kann in keinem der vier Montiorlogs den Wert prioritycache finden.
  10. M

    [SOLVED] Ceph recreate osd failed

    Ich habe das Debugging aktiviert. Hier das Log im Anhang von der zu aktivierenden Platte während der Erstellung. Wenn sonstige Dateien benötigt werden, einfach schreiben. Danke.
  11. M

    [SOLVED] Ceph recreate osd failed

    Hallo Mira, das Problem tritt immer auf. Ich bekomme die NVME nicht mehr in das Cluster. Nur zur Sicherheit, das Debuggung aktiviere ich in der ceph.conf und dort unter: Den Wert debug prioritycache kann ich in der Liste nicht finden. Vielen Dank.
  12. M

    [SOLVED] Ceph recreate osd failed

    Hallo, ich möchte eine osd wieder aktivieren. Dabei wird folgender Fehler ausgegeben und ich komme nicht weiter: Wie umgehe ich den Fehler "read_fsid unparsable uuid"? Vielen Dank für eure Hilfe. Solved with: In der ceph.conf die Optionen bluestore_cache_* entfernt. Remove option in...
  13. M

    [SOLVED] Warnung ceph-service.volume nach Upgrade auf pve7

    Hallo, nach dem Upgrade auf pve7 und ceph 16.2.5 erhalte ich täglich vielfach folgende Warnung: Nun stellt sich mir die Frage, ob ich auf 'mixed' oder 'control-group' umstellen kann, die Warnung ignoriert werden soll oder durch ein Proxmox-Update bereinigt wird? Vielen Dank für eure Hilfe...
  14. M

    How to restore previous OSD of ceph?

    Enters the following two commands at the command line: ceph osd getcrushmap -o crushmapdump crushtool -d crushmapdump -o crushmapdump-decompiled and post the contents of the file "crushmapdump-decompiled".
  15. M

    Schreibrate NVME in WIN10Guest

    Hallo Sycoriorz, vielen Dank für die Rückmeldung. Nach meinen Erfahrungen ist das überhaupt kein Problem. Corosync ist da viel anfälliger, Ceph ist rockstabil und ehrlich, wie oft, ausser bei einem Test werden während der Produktion die VMs auf einen anderen Knoten verschoben. Bei einer...
  16. M

    Schreibrate NVME in WIN10Guest

    Kurze Rückmeldung: Der Arbeitsspeicher ist kein Problem. --OK Onboard 1x10GB PVE Frontend und Livemigration max 1.250 MB/s --> Warum nimmst du nicht die Livemigration mit in das 100GB-Netz und fasst alle 10GB Interfaces zusammen? Vorschlag: Mellanox 5 MCX566A-EACT 1x 100GB Livemigration...
  17. M

    Schreibrate NVME in WIN10Guest

    Aber langsam, du müsstest uns sagen wieviele Platten du in jedem Server hast und wie diese im ceph konfiguriert sind. Außerdem, wie du das Full-Mesh aufgebaut hast (eine oder mehrere 100GB Karten), was machst du mit dem 1GB Port und mit den 2x10GB auf dem Board? Wieviel Ram ist verbaut, was ist...
  18. M

    Schreibrate NVME in WIN10Guest

    Das Hauptproblem sollte damit erledigt sein. Auf der VM-Netzwerkkarte kannst du noch den Wert für "Multiqueue"= erhöhen und einen Test fahren (siehe Hilfe). Ich habe keine Erfahrung im Full-Mesh Betrieb, du kannst die Netze für cluster_network und public_network in ein extra VLAN packen, für...
  19. M

    Schreibrate NVME in WIN10Guest

    Poste bitte deine ceph- und vm-Konfiguration! scsi0: ceph_vm_pool_vm:vm-105-disk-0,cache=writeback,discard=on,...
  20. M

    [SOLVED] ceph octopus neuer Pool

    Hallo, nur eine Frage zu ceph. Nach dem Upgrade zu octopus habe ich einen neuen Pool device_health_metrics mit der Größe von 1 pg. Ceph läuft ohne Probleme mit overall HEALTH_OK. Da ich keine Dokumentation dazu finde: Soll dieser Pool immer bestehen bleiben oder ist es besser diesen zu löschen...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!