[SOLVED] VMs extrem langsam im Vergleich zu Virtualbox

speefak

New Member
Mar 5, 2025
7
3
3
Hallo,

ich plane den Umstieg von VirtualBox auf Proxmox. Mein System ist ein ProLiant ML110 Gen9 mit einem Intel Xeon E5-2695 v4 (36) @ 3.300GHz, 64 GB RAM, einer Samsung SSD 990 PRO 1TB und einigen HDDs als Storage. Ich habe Proxmox auf einer bestehenden Debian 12 Installation eingerichtet und mich in den letzten Tagen etwas in Proxmox eingearbeitet.


Proxmox an sich finde ich sehr gut, auch wenn die Konfiguration der Netzwerkbrücke nicht ganz einfach war. Aber es funktioniert soweit alles. Aktuell befinde ich mich im "Proxmox-Testmodus", um mich besser mit der Plattform vertraut zu machen und setze gerade einige Test-VMs auf.


Dabei ist mir aufgefallen, dass die VMs EXTREM langsam sind! Das Booten einer Debian 12.9 Gnome Live ISO dauert in einer Proxmox-VM mindestens zehnmal länger als in einer VirtualBox-VM. Auf dem Server laufen momentan beide Virtualisierungsumgebungen parallel: VirtualBox mit den produktiven VMs und Proxmox für Tests.

Ich bin gerade ziemlich enttäuscht, dass Proxmox eine derart schlechte Performance zeigt. So ist es für den Produktiveinsatz absolut nicht brauchbar. Im Vergleich zu VirtualBox bietet Proxmox extrem viele Konfigurationsmöglichkeiten für die VMs, aber ich frage mich, ob das Problem an der grundlegenden Installation von Proxmox liegt (aufgesetzt auf dem bestehenden Debian 12 OS), an den VM-Einstellungen selbst oder ob ich irgendeine grundlegende Konfiguration vergessen oder falsch gemacht habe.

Die CPU- und RAM-Auslastung des Hosts (htop) dümpelt vor sich hin und ist nicht wirklich am Limit. Kann die schlechte Performance der Proxmox-VMs eventuell an den Laufwerken liegen? Die Storage-Volumes sind als Verzeichnisse auf dem bestehenden EXT4-Dateisystem realisiert (alles auf der NVMe-SSD), während die HDDs bisher nur als Quellen für die ISOs eingebunden sind. Beide Virtualisierungsumgebungen, sowohl VirtualBox als auch Proxmox, greifen auf die auf der HDD gespeicherten ISOs zum Booten zu. Die VM-Disks liegen auf dem EXT4-Dateisystem der NVMe.

Meine bestehende Datenstruktur auf dem Host würde ich gerne beibehalten und die Disks nicht mit Proxmox neu formatieren.

Was kann ich tun? Wo kann ich nach Fehlern suchen? Was habe ich möglicherweise falsch gemacht?
 
Weniger Polemik und ein wenig Hilfe wäre schön :mad:

Deine Argumente sind mit bestens bekannt und aus genau dem Grund habe ich mich für Proxmox entschieden!

Code:
qm config 1000
boot: order=scsi0;ide2;net0
cores: 8
cpu: host
ide2: none,media=cdrom
memory: 4096
meta: creation-qemu=9.0.2,ctime=1741195068
name: D12-Performance-Testing
net0: virtio=BC:24:11:64:93:25,bridge=vmbr0,firewall=1
numa: 0
ostype: l26
scsi0: PVE-NVME-Storage:1000/vm-1000-disk-0.qcow2,iothread=1,size=32G
scsihw: virtio-scsi-single
smbios1: uuid=9d10c75e-8089-40e6-b6c1-7df6f549fa4e
sockets: 1
vmgenid: 9286ceff-4def-4408-91c0-89de4c3a55ef

Meine Test VM sieht so aus :
 
Du machst es mir echt schwierig freundlich zu bleiben :mad: :mad: :mad:

Warum ich das nicht mache:

1. Es ist mein Produktivsystem, auf dem ich nicht einfach alles platt machen kann.
2. Auf dem System sind nativ der VDR, Zoneminder und Storage HDDs als NAS über SSHFS aktiv. Die kann ich nicht einfach alle nach Gutdünken löschen oder umformatieren
3. Wollte ich nicht unbedingt 3 neue NVME kaufen, da meine verbaute NVME über 6GB/s schreibend schafft.
4. RAID macht heutzutage nicht mehr viel Sinn, wenn man es nicht als "On Demand Ausfallsicherung" nutzt.
5. Statt RAID nutzte ich lieber einen dedizierten Backupserver, denn wenn der Server durch Blitzschlag etc. zerstört wird, nutzt auch kein RAID mehr.

Wenn Du mir ggf. noch ein paar Infos oder Tipps geben kannst/willst wäre ich dir dankbar. Wenn du weiter trollen willst, suche dir bitte jmd. anders!
 
Du machst es mir echt schwierig freundlich zu bleiben :mad: :mad: :mad:

Warum ich das nicht mache:

1. Es ist mein Produktivsystem, auf dem ich nicht einfach alles platt machen kann.
2. Auf dem System sind nativ der VDR, Zoneminder und Storage HDDs als NAS über SSHFS aktiv. Die kann ich nicht einfach alle nach Gutdünken löschen oder umformatieren
3. Wollte ich nicht unbedingt 3 neue NVME kaufen, da meine verbaute NVME über 6GB/s schreibend schafft.
4. RAID macht heutzutage nicht mehr viel Sinn, wenn man es nicht als "On Demand Ausfallsicherung" nutzt.
5. Statt RAID nutzte ich lieber einen dedizierten Backupserver, denn wenn der Server durch Blitzschlag etc. zerstört wird, nutzt auch kein RAID mehr.

Wenn Du mir ggf. noch ein paar Infos oder Tipps geben kannst/willst wäre ich dir dankbar. Wenn du weiter trollen willst, suche dir bitte jmd. anders!

Wow, du kommst mit nem Problem daher, bekommst ne ehrliche Antwort und kannst kaum freundlich bleiben?
Ich würde dir virtuell in de A... treten bei so nem Auftritt und ganz sicher kein know-how rausrücken.

cu
 
Wow, du kommst mit nem Problem daher, bekommst ne ehrliche Antwort und kannst kaum freundlich bleiben?
Ich würde dir virtuell in de A... treten bei so nem Auftritt und ganz sicher kein know-how rausrücken.

cu
Nur schade, dass 1 Million andere Nutzer andere Meinung - durch Tests - sind.
Es wird ja nicht eine einzige Proxmox VE installation produktiv genutzt, das sind ja alles nur Home-Labs mit einer Testumgebung auf diesen komischen Thin-Client


Wenn man mir in A.. tritt hab ich das auch nicht so gerne ! - soviel dazu
 
  • Like
Reactions: ThoSo
Ich habe das Performanceproblem nun gelöst. Es lag daran, dass VirtualBox das KVM-Modell „gelockt“ hatte, und Proxmox daher KVM nicht nutzen konnte. Ich kam darauf, weil beim Starten einer VM mit dem „host CPU“-Modell eine Fehlermeldung kam:


Code:
ioctl(KVM_CREATE_VM) failed: 16 Device or resource busy
kvm: failed to initialize kvm: Device or resource busy
kvm: falling back to tcg
kvm: CPU model 'host' requires KVM or HVF
TASK ERROR: start failed: QEMU exited with code 1

Da KVM unter VirtualBox einwandfrei lief und die Fehlermeldung „resource busy“ besagte, habe ich VirtualBox temporär komplett deaktiviert. Danach konnte ich in Proxmox alles einstellen und es lief ohne Fehler.


Zu ZFS:
Ich bin mir der Vorteile von ZFS bewusst und wollte es schon vor Jahren nutzen. Es war jedoch aus rechtlichen Gründen nur über FUSE nutzbar und als Root-Dateisystem damit eher weniger geeignet. RAID für Consumer-Hardware, insbesondere bei Platten im Fall von RAID 5+X (5-1/2), ist aufgrund der zu erwartenden Bitfehler nicht mehr sinnvoll. Bei großen RAID-5-Verbundsystemen tritt mit sehr hoher Wahrscheinlichkeit ein Fehler beim Rebuild auf, was RAID 5 somit unpraktikabel macht. RAID 1 als Backup-Lösung macht auch keinen Sinn, wenn es nicht um Ausfallsicherheit, sondern um Datensicherheit geht. RAID 0 macht theoretisch aus Performance-Gründen Sinn, aber bei NVMEs mit knapp 6-8 GB/s Lese- und Schreibgeschwindigkeit reicht das in den meisten Fällen.
 
Last edited:
  • Like
Reactions: ThoSo
Weniger Polemik und ein wenig Hilfe wäre schön :mad:

Deine Argumente sind mit bestens bekannt und aus genau dem Grund habe ich mich für Proxmox entschieden!

Code:
qm config 1000
boot: order=scsi0;ide2;net0
cores: 8
cpu: host
ide2: none,media=cdrom
memory: 4096
meta: creation-qemu=9.0.2,ctime=1741195068
name: D12-Performance-Testing
net0: virtio=BC:24:11:64:93:25,bridge=vmbr0,firewall=1
numa: 0
ostype: l26
scsi0: PVE-NVME-Storage:1000/vm-1000-disk-0.qcow2,iothread=1,size=32G
scsihw: virtio-scsi-single
smbios1: uuid=9d10c75e-8089-40e6-b6c1-7df6f549fa4e
sockets: 1
vmgenid: 9286ceff-4def-4408-91c0-89de4c3a55ef

Meine Test VM sieht so aus :
Hi, eine VM mit 8 Cores aber nur 4GB RAM sieht etwas missaligned aus. Entweder hast du zu wenig RAM oder viel zu viele Cores zugewiesen.
Direkt 8 Kerne von den 18 echten Cores zu geben, macht nicht jeden Benchmark besser. Nur mal so am Rande.

P.S. nicht alle hier im Forum kommen gleich mit so Polarisierenden Antworten wie oben, ;)
 
Die 8 Cores und 4 GB RAM waren nur für eine Test-VM. Interessante Erkenntnis: Das KVM-Modul kann entweder von VirtualBox oder von Proxmox genutzt werden – aber nicht gleichzeitig! Sobald eine VM unter einem der Virtualisierer läuft, blockiert sie den Zugriff für den anderen.


Ergebnis: Wenn alle VBox-VMs heruntergefahren sind, läuft Proxmox einwandfrei. Jetzt geht’s an die Migration:
Migration einer VirtualBox-VM nach Proxmox
 
  • Like
Reactions: ThoSo