Hallo zusammen,
ich habe gestern einen 5 Node HCI Cluster von Proxmox VE 6.4 auf 7.1 aktualisiert und Ceph von Octopus auf Pacific.
Das Update an sich lief problemlos durch und gestern Abend war alles ok und Ceph war Healthy.
Heute musste ich jedoch feststellen, dass die WebUI auf 2 Nodes nicht erreichbar war und mehere OSDs gecrasht waren.
Die besagten Nodes zeigten auf der IPMI Konsole jede Menge Buffer I/O errors und blk_update_request I/O errors.
Hier im Forum fand ich den Hinweis, das es wohl ein Problem mit Kernel 5.13 und VirtIO Block devices gibt.
Ich verwende jedoch bei allen VMs VirtIO SCSI und die Fehler treten am Host auf und nicht in den VMs.
Ein Hardwareprobem würde ich eigentlich auch ausschließen da vorher alles lief und es gleich 2 Nodes betrifft.
Sollte ich dennoch zuerst mal das empfohlene Downgrade auf Kernel 5.11 versuchen?
Besten Dank für Eure Antworten.
Viele Grüße
Patrick
ich habe gestern einen 5 Node HCI Cluster von Proxmox VE 6.4 auf 7.1 aktualisiert und Ceph von Octopus auf Pacific.
Das Update an sich lief problemlos durch und gestern Abend war alles ok und Ceph war Healthy.
Heute musste ich jedoch feststellen, dass die WebUI auf 2 Nodes nicht erreichbar war und mehere OSDs gecrasht waren.
Die besagten Nodes zeigten auf der IPMI Konsole jede Menge Buffer I/O errors und blk_update_request I/O errors.
Hier im Forum fand ich den Hinweis, das es wohl ein Problem mit Kernel 5.13 und VirtIO Block devices gibt.
Ich verwende jedoch bei allen VMs VirtIO SCSI und die Fehler treten am Host auf und nicht in den VMs.
Ein Hardwareprobem würde ich eigentlich auch ausschließen da vorher alles lief und es gleich 2 Nodes betrifft.
Sollte ich dennoch zuerst mal das empfohlene Downgrade auf Kernel 5.11 versuchen?
Besten Dank für Eure Antworten.
Viele Grüße
Patrick