Hallo zusammen!
Grüße
Lars-Daniel
tl;dr
Upgrade auf Proxmox 7 (Kernel >= 5.10) bringt alle VMs zum HängenEinleitung
Ich habe einen großen VPS bei einem deutschen Host (mit N beginnend). Das Host-System verwendet einen AMD EPYC 7702P und eine unbekannte KVM-Version. Mir wurde das SVM-Flag des Prozessors durchgeleitet. Neben LXC-Containern verwende ich auch VMs: So habe hier Windows- und Linux-Gäste im Einsatz.Proxmox 6 auf 7: kabumm!
Unter Proxmox 6 mit Debian Buster und dem Kernel 5.4 hatte ich nie Probleme mit nested virtualization. Leider ist mir mit dem Upgrade auf Proxmox 7 alles um die Ohren geflogen (keine Angst, ich hatte Backups). Jetzt locken alle VMs nach 5-10 Sekunden mit dauerhaft 100% CPU.Trial and error
Ich habe mich dann also mal hingesetzt und ein paar Proxmox und selbst kompilierte Kernel sowie eine Kombination qemu 5.2 und qemu 6.1 unter Debian Buster probiert. Bislang tritt das Problem bei allen von mir getesten Kernel auf: 5.7, 5.10, 5.11 und 5.13 - auch bei der 5.11-build von Proxmox. Kernel 5.4 klappt weiterhin perfekt.Diagnose
Irgendwann zwischen 5.4 und 5.10 gab es offenbar Änderungen bei SVM. Ich vermute, dass der Hoster auf seinem L0 einen zu alten Kernel verwendet. Leider gibt's auf meiner Seite keinerlei Fehlermeldungen - mein L1 ist sauber, die Gäste bleiben einfach hängen - sowohl Windows, als auch Linux. Ist also kein HyperV gezaubere.Was nun?
Klar, ich könnte Bullseye unter einem älteren Kernel laufen lassen... ich teste jetzt nochmal 5.5, 5.6 und höher... mal gucken, wann das Problem auftritt. Ich denke nicht, dass ich den Hoster dazu bekomme, seine Systeme zu upgraden. Die haben ja Ihre Kernels ggf. auf Stabilität getrimmt.Grüße
Lars-Daniel
Nachtrag
Kernel 5.6 funktioniert. 5.7 nicht mehr. Okay, dann gehe ich mal das Changelog durch.Mögliche Fundstellen
http://archive.lwn.net:8080/linux-kernel/20200302235709.27467-1-sean.j.christopherson@intel.com/T/#t
Last edited: