Search results

  1. Ceph: 1 PG bleibt dauerhaft auf active+clean+remapped stehen

    Wie im Titel schon geschrieben: 1 PG bleibt dauerhaft auf active+clean+remapped stehen Ceph Status ist aber auf Health_OK Zuvor habe ich auf jeder der 3 Nodes eine weitere OSD hinzugefügt und danach die Anzahl der PG´s auf 1024 erhöht. Seitdem steht rechts untr PG´s in gelb...
  2. Ceph: Autoscaler auch einsetzbar wenn man unterschiedlich große OSDs hat?

    Nachdem ich nun meine Auslastung im Pool durch hinzunahme weiterer OSD auf 60% runter gebracht habe (von 80), bin ich versucht den autoscaler zu aktivieren. Nur habe ich irgendwo auf einer Seite gelesen, dass der Autoscaler die Anzahl der PG pro OSD identisch setzt. Da ich 1 TB und 2 TB SSD´s...
  3. Ceph PG count eines Pools muss verringert werden

    Hallo, der autoscaler sagt mir, dass der pg count eines pools verringert werden sollte. Da ich schlimmes über den Automatismus gelesen habe, habe ich den Autoscaler nur auf "warn" stehen, d.h. es darf selbst nichts tun. Nun frage ich mich, wie ich ich den PG Count verringern soll. Also die...
  4. Problem: RDB write waiting time increased to 1000ms since upgrade to PVE7

    I updated from PVE 5 to PVE6 to PVE 7 last weekend, and from CEPH Luminous to Nautilus to Octopus (in the right order). Now i mentioned some warnings in my zabbix server monitoring for one node: Seems, that write response/waiting time on some rdb devices are going up or somthing is...
  5. Snapshot löschen extrem langsam und Fehlermeldung zum Schluss nach Upgrade

    Ich habe am Wochenende ein großes Update gemacht PVE5 -> PVE6 Ceph Luminous -> Nautilus Ceph Nautilus -> Octupus PVE6 -> PVE7 Es war eine mittlere Katastrophe (siehe anderer Thread bzgl verlorener Connections zwischen den Hosts). Nachdem nun alles soweit läuft habe ich eine extrem schlechte...
  6. Nach Upgrade von PVE5 auf PVE6 kommen die Netzwerk Interfaces nicht mehr hoch

    Hallo, ich habe eben ein 3 Node Cluster von PVE5 auf PVE6 upgegraded. Streng nach Manual. Vorher hab ich es auch in nem Test-Lab-Aufbau getestet und es klappte fehlerfrei. Ceph wurde noch nicht angefasst. (d.h. es läuft noch Luminous). Nachdem ich nun die ersten beiden Nodes upgegraded hatte...
  7. Gesucht: Lösung / Workaround für fehlendes/umbenanntes Paket

    Ich versuche derzeit den "Synology Backup for Business Agent" auf meinen Prxmox VE nodes zu installieren. Wie in einem anderen Thread gelesen scheitert das Installationsskript jedoch an einer Stelle, wenn versucht wird das Standard Paket: linux-headers-5.4.78-2-pve zu installieren und bricht...
  8. Backup der Nodes mittels Synology Active Backup for Business

    Hi! Ich habe schon länger nach eine für mich praktibablen und einfachen Möglichkeit gesucht meine 4 Proxmox VE nodes zu backuppen. Ich meine jetzt nciht die VM´s die in meinem CEPH Cluster sind, sondern tatsächlich nur die Node Betriebssysteme (Proxmox selbst eben). Auf unserem zentralen...
  9. Update Proxmox 5.4 to Proxmox 6 Frage zur "Parallelität"

    Hallo, ich wurde freundlich darauf hingewiesen, dass der Support für meine Proxmox 5.4 Installation demnächst endet und ich ein Update auf die Version 6 durchführen sollte. Meine Konfi sieht so aus, dass ich eine 3 Node Installation habe auf identischen Maschinen die hyperkonvergent als HA...
  10. Upgrade eines laufenden PVE5 auf PVE6

    Hi! Ich würde die ruhige Zeit zwischen den Jahren gerne nutzen meinen Proxmox/Ceph Cluster mit 3 Nodes von 5.4-13 auf PVE6 upzugraden. Die Doku habe ich schon gefunden und vor ein paar Wochen auf einem LAB System durchgespielt...
  11. Ceph unter Proxmox: Brauche Tips zur Erweiterung

    Hallo, ich betreibe aktuell Proxmox 5.4-13 mit 3 Nodes Alle nodes sind identisch ausgerüstet und beherbergen auch CEPH. Jede Node hat aktuell 4 OSDs auf jeweils einer 1 TB SSD. Ceph läuft 3/2 PlacementGroups habe ich auf 896 schrittweise von 256 hochgeschraubt. Hier hat mich leider die...
  12. Ceph Verständnisfrage

    Hallo, ich habe CEPH am laufen (3 Nodes mit jeweils 4* 1TB SSD). Ich habe 2 Pools eingerichtet mit jeweils 1 Storage - jeweils eins für Vm und eins für Container. (ahlt so wie im Anleitungsvideo) Läuft alles soweit prächtig. Wenn ich jetzt auf eine Node gehe und dort den jeweiligen Storage...
  13. Can I check "KRBD" on existing Ceph VM Storage

    I store my VM Disk images on CEPH storage. I´m wondering if I can check the "KRBD" option on existing storage, without losing data?
  14. Problems with regex pattern in User Blacklist

    Hi! I try to enter some addresses in user blacklist. I wan´t to block the TLD *.icu for some users. But everytime I tried to enter it I got "Parameter verification failed (400) address: value does not match the regex pattern" But example on webpage said: "*.com (all mails from .com...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!