Wie im Titel schon geschrieben:
1 PG bleibt dauerhaft auf active+clean+remapped stehen
Ceph Status ist aber auf Health_OK
Zuvor habe ich auf jeder der 3 Nodes eine weitere OSD hinzugefügt und danach die Anzahl der PG´s auf 1024 erhöht.
Seitdem steht rechts untr PG´s in gelb...
Nachdem ich nun meine Auslastung im Pool durch hinzunahme weiterer OSD auf 60% runter gebracht habe (von 80), bin ich versucht den autoscaler zu aktivieren.
Nur habe ich irgendwo auf einer Seite gelesen, dass der Autoscaler die Anzahl der PG pro OSD identisch setzt.
Da ich 1 TB und 2 TB SSD´s...
Hallo,
der autoscaler sagt mir, dass der pg count eines pools verringert werden sollte. Da ich schlimmes über den Automatismus gelesen habe, habe ich den Autoscaler nur auf "warn" stehen, d.h. es darf selbst nichts tun.
Nun frage ich mich, wie ich ich den PG Count verringern soll. Also die...
I updated from PVE 5 to PVE6 to PVE 7 last weekend, and from CEPH Luminous to Nautilus to Octopus (in the right order).
Now i mentioned some warnings in my zabbix server monitoring for one node:
Seems, that write response/waiting time on some rdb devices are going up or somthing is...
Ich habe am Wochenende ein großes Update gemacht
PVE5 -> PVE6
Ceph Luminous -> Nautilus
Ceph Nautilus -> Octupus
PVE6 -> PVE7
Es war eine mittlere Katastrophe (siehe anderer Thread bzgl verlorener Connections zwischen den Hosts).
Nachdem nun alles soweit läuft habe ich eine extrem schlechte...
Hallo,
ich habe eben ein 3 Node Cluster von PVE5 auf PVE6 upgegraded. Streng nach Manual.
Vorher hab ich es auch in nem Test-Lab-Aufbau getestet und es klappte fehlerfrei.
Ceph wurde noch nicht angefasst. (d.h. es läuft noch Luminous).
Nachdem ich nun die ersten beiden Nodes upgegraded hatte...
Ich versuche derzeit den "Synology Backup for Business Agent" auf meinen Prxmox VE nodes zu installieren.
Wie in einem anderen Thread gelesen scheitert das Installationsskript jedoch an einer Stelle, wenn versucht wird das Standard Paket:
linux-headers-5.4.78-2-pve
zu installieren und bricht...
Hi!
Ich habe schon länger nach eine für mich praktibablen und einfachen Möglichkeit gesucht meine 4 Proxmox VE nodes zu backuppen. Ich meine jetzt nciht die VM´s die in meinem CEPH Cluster sind, sondern tatsächlich nur die Node Betriebssysteme (Proxmox selbst eben).
Auf unserem zentralen...
Hallo,
ich wurde freundlich darauf hingewiesen, dass der Support für meine Proxmox 5.4 Installation demnächst endet und ich ein Update auf die Version 6 durchführen sollte.
Meine Konfi sieht so aus, dass ich eine 3 Node Installation habe auf identischen Maschinen die hyperkonvergent als HA...
Hi!
Ich würde die ruhige Zeit zwischen den Jahren gerne nutzen meinen Proxmox/Ceph Cluster mit 3 Nodes von 5.4-13 auf PVE6 upzugraden.
Die Doku habe ich schon gefunden und vor ein paar Wochen auf einem LAB System durchgespielt...
Hallo,
ich betreibe aktuell Proxmox 5.4-13 mit 3 Nodes
Alle nodes sind identisch ausgerüstet und beherbergen auch CEPH.
Jede Node hat aktuell 4 OSDs auf jeweils einer 1 TB SSD.
Ceph läuft 3/2
PlacementGroups habe ich auf 896 schrittweise von 256 hochgeschraubt.
Hier hat mich leider die...
Hallo,
ich habe CEPH am laufen (3 Nodes mit jeweils 4* 1TB SSD).
Ich habe 2 Pools eingerichtet mit jeweils 1 Storage - jeweils eins für Vm und eins für Container. (ahlt so wie im Anleitungsvideo)
Läuft alles soweit prächtig.
Wenn ich jetzt auf eine Node gehe und dort den jeweiligen Storage...
Hi!
I try to enter some addresses in user blacklist.
I wan´t to block the TLD *.icu for some users.
But everytime I tried to enter it I got
"Parameter verification failed (400) address: value does not match the regex pattern"
But example on webpage said:
"*.com (all mails from .com...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.