Anwendungs-Performance zu gering

Xoxxoxuatl

New Member
Dec 24, 2025
15
4
3
Hallo,

wir möchten auf Proxmox umsteigen und haben eine POC aufgebaut
Aktuell laufen die VMs noch auf vSphere und Intel CPUs, das neue System basiert auf AMD CPUs.

Nun brauchen die Tests auf dem neuen System doppelt so lange als wie auf dem Alten.

Meine aktuelle Konfiguration sieht folgendermaßen aus.
(Ich hatte die VM auch schon in einer RamDisk um das iSCSI Storage auszuschließen)

Code:
agent: 1
balloon: 0
bios: ovmf
boot: order=scsi0
cores: 4
cpu: host,flags=+aes
efidisk0: me5024_lvm_raid10:vm-105-disk-1,efitype=4m,pre-enrolled-keys=1,size=4M
ide2:
machine: pc-q35-10.0
memory: 16384
meta: creation-qemu=10.0.2,ctime=1763049569
name:
net0: virtio=BC:24:D3:C2:F3:E9,bridge=vmbr0,firewall=1,queues=4
numa: 1
numa0: cpus=0-3,memory=16384
ostype: win11
scsi0: me5024_lvm-thin_raid10:vm-105-disk-0,iothread=1,size=80G
scsi1: me5024_lvm_raid10:vm-105-disk-0,iothread=1,size=150G
scsihw: virtio-scsi-single
smbios1: uuid=ac9c82b9-b286-4cf3-8d54-1eb4e387b11a
sockets: 1
tpmstate0: me5024_lvm_raid10:vm-105-disk-2,size=4M,version=v2.0
vga: virtio,memory=64
vmgenid: 6f5de142-7938-4241-9d92-1ba68a2577a3

Danke!
Thomas
 
Last edited:
  • Like
Reactions: FrankList80
Bitte benutze Code Blöcke.
Zum Rest lässt sich wenig sagen ohne Hardware und Software Information.
 
(Hallo ... ich meine es gibt hier sehr elegische Threads über Windows Guest Optimierung ..... ich meine es ist ja fast immer die Storage Ansprache und die Treiber Unterstützung im Mix .... evtl. schreibt ja noch ein Win-Experte ....)

[Virtualization Support for SME and NGOs | DLI Solutions ]
 
Danke für die Hinweise.

Hardware
Server sind Dell R7525 mit EPYC 75F3 32-Core Processor (2 Sockets), 4x25 GBit iSCSI
2 x Dell 5248 Switche mit jeweils einem iSCSI vLAN
Storage DELL ME5024 mit SSDs

Software
pve-manager/9.1.2/9d436f37a0ac4172 (running kernel: 6.17.4-1-pve)
Auf der VM läuft Win11 25H2 und 100.101.104.28500.

Falls noch etwas fehlt bitte Bescheid sagen.... ich teste mal x86-64-v2-AES.
 
Last edited:
Also das ganze Setup sieht gefährlich gebastelt aus.
Eine DELL ME ist ein shared Storage, bei euch per iSCSI angebunden. Wenn du nur einen Host hast, kann man zum testen mal LVM-Thin auf die Disks packen, aber da LVM-Thin nicht shared fähig ist, eignet sich das eh nicht zum Clusterbetrieb.
Vermutlich hast du auch kein multipathing konfiguriert, was bei einer ME auch ganz schnell in schlechter Performance endet, wenn du zufällig nicht optimale Pfade benutzt.

Warum hast du NUMA in der VM aktiviert?

Was genau testest du denn, was langsam sein soll?
 
  • Like
Reactions: Johannes S and UdoB
Es sind zwei Probleme, für das "Storage iSCSI Performance" Thema hatte ich hier einen Thread eröffnet.

Unabhänig davon laufen die Tests (Wir testen Siemens TIA, eine Single Thread lastige Applikation) auch in einer RamDisk nicht besser.

Ich habe mir die Filesysteme (ZFS, LVM, LVM-Thin) angesehen um festzustellen ob es Unterschiede bei der Performance gibt.
Wartungsfreundlicher Clusterbetrieb gute Performance und Snapshots wären wünschenswert.
Was wäre die Empfehlung hinsichtlich der Filesystems?

defaults {
user_friendly_names yes
find_multipaths yes
max_fds 8192
polling_interval 5
queue_without_daemon no
}

blacklist {
devnode "^sda$"
devnode "^sdb$"
}

devices {
device {
vendor "DellEMC"
product "ME5"
path_grouping_policy "group_by_prio"
path_checker "tur"
hardware_handler "1 alua"
prio "alua"
failback "immediate"
rr_weight "uniform"
path_selector "service-time 0"
}
}
multipaths {
multipath {
wwid "3600c0ff000f949ac18915f6901000000"
alias mpatha
}
}

NUMA wegen des AMD Prozessors und auch das Pinnen der CPUs, in der Hoffnung die Performance verbessert sich.
Hat aber keinen Unterschied gemacht, oder die Konfig passt nicht.

Das Ändern des Host Typs von host auf x86-64-v2-AES zeigt bei einem kurzen Testlauf eine merkliche Verbesserung: Laufzeit -50%.
 
Last edited:
Das Ändern des Host Typs von host auf x86-64-v2-AES zeigt bei einem kurzen Testlauf eine merkliche Verbesserung: Laufzeit -50%.
Mal rein aus Neugierde, wenn das ein Proxmox VE 9.1 ist, versuch mal CPU type host, aber mit der nested-virt flag deaktivert.

Sehr gut möglich, dass das Windows' VBS (virtualization based secuirty) automatisch aktiv wird und performance frisst wenn da die CPU virtualisierungs Flags durchgereicht werden.
 
  • Like
Reactions: Falk R.
Ich hatte jetzt bei einem Kunden mit Xeon Icelake CPUs, dass ein Windows 2022 gar nicht booten wollte mit der Option Host.
Ich habe dann Icelake no TSX eingestellt und damit läuft das Windows. Eine andere Windows2022 VM auf dem Host mit dem CPU Typ host sieht im Windows die gleichen CPU Features. Da her stelle ich die VMs jetzt direkt auf den vorhandenen CPU Typ. Warum das WIndows bei CPU Typ host so zickt , ist nicht nachvollziehbar. Eventuell mal die Epyc CPU auswählen, welche bei dir verbaut ist.
 
Bei Siemens TIA empfehlen die Leute eher Workstation CPUs (z.B. Xeon-W oder Ryzen) wegen der deutlich besseren Single Thread Leistung.
Welche CPU habt ihr denn verbaut?
 
  • Like
Reactions: Johannes S
Wir haben hier EPYC 75F3 und EPYC 9554.
Der Epyc 9554 ist Single Thread schon etwas besser als der 75F3 (2800er zu 2400er Benchmark) aber beide CPUs sind eher im Mittelfeld. Für so eine spezielle Anwendung hätte ich doch lieber andere CPUs gewählt.
Richtig gut sind z.B. 9175F und 9575F, die habe ich gerade im Kopf.