Absolutely!
If you still had enough OSDs and at least one replica of all PGs (no unfound PGs), you could also have cleaned up those corrupted OSDs, wiped the disks and set them up new again.
So very roughly from the top of my head:
vgchange -an...
Where did you run the FIO benchmark? In a VM or on the host?
If on the host, is /dev/sda by any chance the disk that is used by that OSD? lsblk should show a view of the LVs and VGs and on which physical disk they are located.
Do you see any...
Wenn man an mehreren Stellen einstellt, wie viele Backups vorgehalten werden sollen, gewinnen die aggressiveren Einstellungen.
Z.B. sehr vereinfacht: Wenn am Backup Server 20 behalten werden sollen, aber man dann im Backup Job, oder den...
Was meinst du damit genau?
AFAIU wird das (externe?) LTO Laufwerk mit SAS angebunden oder? Entsprechend sollte der Server einen SAS Controller haben, der einen externen SFFxyz Stecker hat.
Dann sollte das vom Host auch als entsprechendes Gerät...
Ohne Details zu kennen. Aber ja, die vollste OSD gibt vor, wie viel freier Platz geschätzt wird. Der Ceph-Balancer, genug PGs damit diese kleiner sind, sorgen dafür, dass die OSDs meist gut gleichverteilt voll sind. Wenn das auch nicht klappt...
Ceph verteilt die Daten über die OSDs. Das "weight" korreliert mit der Größe und wird vom CRUSH Algorithmus berücksichtigt. Wenn der Cluster groß genug ist, tun unterschiedlich große OSDs nicht "weh" im Sinne von, nicht genug Platz.
Wo große...
I wouldn't worry much about fragmentation on SSDs. In comparison to HDDs, the access times are the same, no matter "where" the data is stored. Especially since with wear leveling, the logical and physical location of the data on the chips is...
Ich sehe auch nichts was von Proxmox Seite reinspielen kann. Teste doch bitte mal mit einer USB Nic, die hat man ja oft für Notebooks rumliegen. Wenn es dann nicht geht, liegt es nicht am Netzwerk.
Falls das Problem dann immer noch besteht, bei...
Du könntest auch noch eine NIC direkt an die VM via PCI Passthrough durchreichen. Dann ist da von Proxmox VE Seite wirklich nichts mehr dazwischen und du hast, aus Netzwerksicht, eine bare-metal Kiste.
Evlt. wirst du im BIOS IOMMU aktivieren...
Okay, a few things I notice:
Different Device Classes: If it is true, you have HDDs and SSDs as OSDs. Currently all pools store their data on all OSDs, ignoring the difference. You could create device-class specific rules and assign them to the...
Hmm, also das Setup sieht soweit so einfach wie möglich aus:
Client → (Proxmox VE vmbr0) → Server
Da sollte von Proxmox VE Seite eigentlich nichts hineingrätschen, sondern die Pakete vom Client direkt an den Server gehen.
MTU usw. passen auch...
Did you set a "target_ratio" for the pool? How many pools do you have?
Could you also please provide the output of the following two commands?
pveceph pool ls --noborder
ceph osd df tree
For the first, make sure that the terminal is rather...
Wie ist da der Flow? Der Server mit dem Mail Service auf Port 8100 ist der 192.168.70.8 und der externe Client ist 192.168.70.90 in dem TCP dump?
Wie ist der Mail Server konfiguriert? Denn wenn die VM direkt ein Bein im gleichen IP Subnet hat...
It is available in the Proxmox repositories. You could try to download the .deb file directly and try to install it. Though I have not tested it on a Linux Mint myself...
Danke für den Hinweis – das war tatsächlich der Grund!
Beim Befehl:
rbd ls -l ceph-pool01
kam direkt am Anfang die Meldung:
rbd: error opening vm-216-cloudinit: (2) No such file or directory
Da ist beim Löschen eines RBD-Images wohl irgendwas...
Hey, was gibt ein rbd ls -l ceph-pool01 zurück? Kommen da am Anfang Fehler bezüglich eines RBD Images das nicht gefunden wird?
Zum Beispiel:
rbd: error opening vm-100-disk-0: (2) No such file or directory
rbd: listing images failed: (2) No such...