Recent content by jalfe

  1. J

    Ceph Managers Seg Faulting Post Upgrade (8 -> 9 upgrade)

    Just following up on this. The fixed packages seem to still be missing from the enterprise/subscriber repository. Do you have any update or expected timeline when they’ll be available there? We’re holding back production upgrades until the fix arrives in the enterprise repo. Thanks in advance!
  2. J

    Ceph Managers Seg Faulting Post Upgrade (8 -> 9 upgrade)

    Thank you for getting this issue resolved! Do you have an idea when this will be available in the enterprise repository?
  3. J

    Ceph Managers Seg Faulting Post Upgrade (8 -> 9 upgrade)

    The manager is running stable as long as there is no trash. I used this snippet to ensure, that the trash is emptied: for pool in $(ceph osd pool ls | xargs -n1); do ns_list=$(rbd namespace ls -p "$pool" 2>/dev/null || true) if [ -z "$ns_list" ]; then echo "purge $pool" rbd -p...
  4. J

    Seit aktivieren des neuen Ceph-Netzwerk-Protokolls werden Monitore, Manager und Meta Services doppelt angezeigt

    Wir sind noch über einen alten Beitrag gestolpert, wo ein ähnliches Problem erörtert wird. Demnach muss ich mal bei uns die Hostname Einstellung anpassen. Bis zum nächsten reboot dauert es allerdings noch ein wenig. Es scheint, als hätte es mal korrekt funktioniert, aber als wäre das nun wieder...
  5. J

    Seit aktivieren des neuen Ceph-Netzwerk-Protokolls werden Monitore, Manager und Meta Services doppelt angezeigt

    Habe mit einem Ceph-Magier gesprochen, der mir davon abriet die Version 1 zu deaktivieren, da es potentiell negative Auswirkungen haben könnte. Zudem haben wir mit mehreren, anderen Clustern verglichen (>4), die auch schon länger betrieben werden und sowohl Nautlilus oder Quinicy am laufen...
  6. J

    Seit aktivieren des neuen Ceph-Netzwerk-Protokolls werden Monitore, Manager und Meta Services doppelt angezeigt

    Das muss ich erstmal noch selber rausfinden :) Soweit bin ich noch nicht ganz. Aber als Lösung tut deine Antwort erst einmal. Werde updaten sobald ich eine Lösung habe.
  7. J

    Seit aktivieren des neuen Ceph-Netzwerk-Protokolls werden Monitore, Manager und Meta Services doppelt angezeigt

    Ja zu beidem! Unsere Cluster sind schon "älter". Nach der Anleitung sollte man ja das Protokoll in v2 aktivieren, dort steht aber nichts von der Deaktivierung des Protokolls in v1. Wenn ich ein ceph mon dump ausführe, bekomme ich auch auf jedem Monitor für jede Adresse 2 Ports geliefert.
  8. J

    Seit aktivieren des neuen Ceph-Netzwerk-Protokolls werden Monitore, Manager und Meta Services doppelt angezeigt

    Moin! Hatte das leider schon versucht. Habe auch schon den kompletten Cluster neu gestartet. Leider brachte beides nichts.
  9. J

    Seit aktivieren des neuen Ceph-Netzwerk-Protokolls werden Monitore, Manager und Meta Services doppelt angezeigt

    Moin, Ich habe heute morgen das Upgrade von Pacific auf Qunicy auf unserem Side-Cluster durchgeführt (https://pve.proxmox.com/wiki/Ceph_Pacific_to_Quincy), bevor ich es Core-Cluster probiere. Schon vor diesem Upgrade hatten wir das Problem, dass die Übersicht über das Cluster (auch das...
  10. J

    Bei Upgrade von 7.1 auf 7.2 wurde cloud-init aktiviert -> führt zu massiven Problemen

    Zudem ist uns aufgefallen, dass sich die ServerID in dem Prozess geändert hat und wir diese in der Subscription wieder anpassen mussten. Was hat denn in dem Prozess den wechsel der ServerID ausgelöst?
  11. J

    Bei Upgrade von 7.1 auf 7.2 wurde cloud-init aktiviert -> führt zu massiven Problemen

    Im Standard ist cloud-init so konfiguriert, dass es alles mögliche in /dev/ sucht, bis es was findet, was so aussieht, als könnte cloud-init das verwenden. Im besten Falle ist das natürlich die gewollte cloud-init partition. Im unserem Falle ist es allerdings /dev/zd* gewesen, also eine lokale...
  12. J

    Bei Upgrade von 7.1 auf 7.2 wurde cloud-init aktiviert -> führt zu massiven Problemen

    Von eben jener Website. Aber natürlich war es damals ein 7.1er Release und die sha-Summen stimmten damals ebenfalls. Heute kann ich das leider nicht mehr Nachvollziehen. Wir haben insgesamt 8 Knoten mit Proxmox. Ich habe auf den Knoten folgendes geprüft: root@pve-ni-01:/var/log/apt# find ...
  13. J

    Bei Upgrade von 7.1 auf 7.2 wurde cloud-init aktiviert -> führt zu massiven Problemen

    Die Nodes wurden mit dem Installer von der Website installiert. Also über die ISO. Wir haben die Ansible Rollen bereits geprüft und konnten darüber nichts fest stellen. Davon abgesehen, sollt es doch egal sein ob cloud-init verwendet wird oder nicht nicht - Es sollte sich doch nicht das...
  14. J

    Bei Upgrade von 7.1 auf 7.2 wurde cloud-init aktiviert -> führt zu massiven Problemen

    Auf den Nodes ist überall cloud-init installiert. Wir hatten bis vor ca. 3 Monaten nur 3 Nodes. Und haben dann noch 2 dazu gebaut. Auch bei den "frisch" installierten, ist cloud-init mit installiert. Dieses wurde nicht manuell hinterher installiert.
  15. J

    Bei Upgrade von 7.1 auf 7.2 wurde cloud-init aktiviert -> führt zu massiven Problemen

    Auch die letzte Node, welche 2 Festplatten einer VM im local-zfs hat, ist durch gelaufen. Es scheint das Problem also exklusiv damit vorzuliegen, wenn man ein cloud-init Volume im local-zfs hat. Wenn noch weitere Informationen für ein Nachstellen oder Debugging benötigt werden, kann ich die...