Bei uns ist das Problem in letzter Zeit nicht mehr aufgetreten. Wir haben alle Systeme vor ca. 2-3 Monaten neugestartet, da im Haus an der Elektrik gearbeitet wurde. Das letzte mal, als es aufgetreten ist, handelte es sich um eine Debian 6 VM - Die machen manchmal auch Probleme, wenn man sie...
Wir haben das Problem auch. Bei uns scheint ein Upgrade auf pve-qemu-kvm: 6.2.0-8 (aus pve-test, da sind aktuell keine anderen Upgrades drin im vgl. zum Nosub-Repo) geholfen zu haben.
You could use "zpool export <Pool>" *then* move your NVMe Disks to the new Server and *then* use "zpool import" (src: https://www.errth.net/moving-zfs-pool-between-proxmox-servers/ )
Your root-filesystem seems to be readonly - You may check if `dmesg` contains any further FS or IO-Errors which have caused the FS to go readonly in the first place.
Wir haben das Problem heute bei einer VM unter PVE 6.4 erlebt. Der Speicher lag auf einem NFS Laufwerk und die Festplatte war per SATA an die VM gebunden (sata0). Nach der Neuinstallation des Bootloaders und der Wiederherstellung durch Testdisk lief die VM wieder.
Hast du die 10TB Platten im RAID1 laufen? Wenn ja: Du kannst mit einem halben RAID auch eine Datenmigration machen, wenn du auf die entnommene Festplatte im neuen Host ein ZFS schreibst (die Daten auf der Platte gehen dabei natürlich verloren). Aber damit könntest du die Platte bereits für VMs...
Ich vermute mal, dass überhaupt nicht bootbar bedeutet, dass das VM-BIOS feststellt, dass da "nichts" im MBR ist. Wenn der Bootloader kaputt ist, wird er ja u.U geladen und das BIOS hat nichts mehr damit zu tun und erkennt das damit nicht korrekt.
Das hängt davon ab was für ein Budget du hast und welche Software darauf laufen soll. Aktuell würde ich bei der Wahl zwischen Xeon Silver oder Gold auf einen Epyc3 setzen.
Hallo zusammen,
wir betreiben einen Proxmox-Cluster bestehend aus mehreren Hosts mit Epyc 7702P + 512GB RAM + 2x 960GB SSDs (Boot) + 4x 3.84TB DC SSDs (Storage/Ceph).
Auf drei der Hosts habe ich nun Ceph (via GUI Installer) installiert. Die Hosts sind über einen 25Gb Switch redundant...
Sofern du die Möglichkeit hast die vorgeschlagenen Änderungen zu testen wäre es einen Versuch wert; Es kann natürlich sein, dass das in Verbindung mit Ceph überhaupt keinen Unterschied macht - Ich habe bisher nicht mit Ceph gearbeitet.
That actually sounds like some kind of firmware issue. Are there any firmware updates available for this drive? Could you install the misbehaving NVMe drive in a different slot? If those issues still remain you may want to contact your seller or wdc to get this drive replaced.
If you are using HA you may encounter stale lrm-status entries in the HA-status. But besides that we did not encounter any further problems with this practise.
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.