Hallo zusammen,
wir haben bei einem Kunden ein Proxmox Cluster bestehend aus 3 Servern gebaut und das läuft auch alles soweit ganz gut. Wir haben die Server mittels 10GBit/s Netzwerkkarten per Peer-to-Peer miteinander verbunden, worüber ein Ceph Speicher läuft.
Dieser Ceph Speicher weist nun 33 scrub errors auf 3 inconsistent PGs auf. Ich habe gelesen, dass man diese Fehler in der Konsole mit ceph Befehlen beheben kann, jedoch würde mich vorher interessieren, welche Auswirkungen das auf aktuell laufende VMs (die disks liegen auf dem Ceph Speicher) haben kann.
Hat hier jemand Erfahrung damit? Kann ich die Reparatur einfach durchführen und die VMs merken nichts davon? Ich kann mir vorstellen, dass die Geschwindigkeit des Speichers darunter leiden wird, aber kann da noch mehr passieren?
Danke und LG
Dom
wir haben bei einem Kunden ein Proxmox Cluster bestehend aus 3 Servern gebaut und das läuft auch alles soweit ganz gut. Wir haben die Server mittels 10GBit/s Netzwerkkarten per Peer-to-Peer miteinander verbunden, worüber ein Ceph Speicher läuft.
Dieser Ceph Speicher weist nun 33 scrub errors auf 3 inconsistent PGs auf. Ich habe gelesen, dass man diese Fehler in der Konsole mit ceph Befehlen beheben kann, jedoch würde mich vorher interessieren, welche Auswirkungen das auf aktuell laufende VMs (die disks liegen auf dem Ceph Speicher) haben kann.
Hat hier jemand Erfahrung damit? Kann ich die Reparatur einfach durchführen und die VMs merken nichts davon? Ich kann mir vorstellen, dass die Geschwindigkeit des Speichers darunter leiden wird, aber kann da noch mehr passieren?
Danke und LG
Dom