Proxmox und Windows Server 2025 VMs auf DL380 GEN10

schul-it

New Member
Jul 4, 2025
6
2
3
Hallo,

wir möchten auf unserem Server mit folgenden Specs:

HPE ProLiant DL380 Gen10 8NVMe + 8SFF Modell
2x Intel Xeon Gold 6138 (20-Core/2.00GHz-3.70GHz/125W)
256GB RAM (8x 32GB) Dual Rank DDR4-2666MHz Registered Smart Memory
2x 480GB M.2 SSD (Raid1 boot)
3x HPE 1.6TB NVMe Gen4 Mixed Use SSD 2.5" SFF U.3

Proxmox installieren und darauf dann 4x Windows Server 2025 VMs (DC, SQL Server usw.) laufen lassen.
Wir haben mit einem älteren (DL380 Gen9) Server schon diverse Tests gemacht und festgestellt, dass die Performance deutlich zu wünschen übrig lässt.
Die Einstellungen waren wohl auch nicht optimal, sodass wir nun in der produktiven Phase die Installation möglich best practices machen wollen (wir haben gelesen, dass man die Einstellungen nachträglich zwar ändern kann, diese jedoch nicht wirklich ziehen).

Daher haben sich für uns erstmal folgende Fragen ergeben:

1: Raid: den Hardware Raidcontroller nicht verwenden, richtig?
2: Welches Filestystem sollte man bei der Proxmox Installation auswählen? zfs (Raid1)? Raid1 würde uns reichen.
3. System BIOS default? SCSI Controller - VirtIO SCSI
4. HardDisk - Bus/Device - SCSI?
5. Welchen CPU Type? Host?
6. Balloning an oder aus?

Was ist sonst noch zu beachten?
Gibt es irgendwo eine genaue Best Practices Anleitung?

Vielen Dank vorab und sonnige Grüße
 
Moin.

Aus eigenen Erfahrungen:
1: Raid: den Hardware Raidcontroller nicht verwenden, richtig?
Korrekt - Wir haben nur Probleme mit diesem erlebt.

2: Welches Filestystem sollte man bei der Proxmox Installation auswählen? zfs (Raid1)? Raid1 würde uns reichen.
- ZFS Raid 1 ist absolut ausreichend und genügend.
3. System BIOS default? SCSI Controller - VirtIO SCSI
- Meiner Meinung nach VirtIO SCSI
5. Welchen CPU Type? Host?
- Immer Host
6. Balloning an oder aus?
- Haben wir immer aus

Zu Punkt 4 ist es bei uns immer unterschiedlich.
 
Ok, danke für die Kommentare und den Hilfreichen Link.
Hoffe, dass die Einstellungen dann so passen und die Kisten dann auch gut performen :)

Zur CPU schrieb jemand hier in einem anderen Beitrag, dass die Einstellung x86-64-v2-AES bei ihm dann letztendlich zum Erfolg geführt hat. Ein Versuch wert oder passt die Einstellung Host wirklich immer am besten oder zumindest in unserem Fall hier am besten?
 
x86-64-v2-AES oder besser funktioniert Grundsätzlich auch, der Unterschied ist dass bei "Host" dann unter Windows Server 2025 die Virtualization Based Security aktiviert ist und bei x86-64-v2-AES nicht. Das hat möglicherweise Auswirkungen auf die Performance.

Für bessere Kompabilität für Migrationen wird x86-64-v2-AES empfohlen, bei gleicher Hardware sollte "Host" kein Problem sein.

Am besten wäre wenn du das auf deiner Hardware vorher testen könntest ...
 
  • Like
Reactions: Johannes S
Hallo,

wir möchten auf unserem Server mit folgenden Specs:

HPE ProLiant DL380 Gen10 8NVMe + 8SFF Modell
2x Intel Xeon Gold 6138 (20-Core/2.00GHz-3.70GHz/125W)
256GB RAM (8x 32GB) Dual Rank DDR4-2666MHz Registered Smart Memory
2x 480GB M.2 SSD (Raid1 boot)
3x HPE 1.6TB NVMe Gen4 Mixed Use SSD 2.5" SFF U.3

Proxmox installieren und darauf dann 4x Windows Server 2025 VMs (DC, SQL Server usw.) laufen lassen.
Wir haben mit einem älteren (DL380 Gen9) Server schon diverse Tests gemacht und festgestellt, dass die Performance deutlich zu wünschen übrig lässt.
Die Einstellungen waren wohl auch nicht optimal, sodass wir nun in der produktiven Phase die Installation möglich best practices machen wollen (wir haben gelesen, dass man die Einstellungen nachträglich zwar ändern kann, diese jedoch nicht wirklich ziehen).

Daher haben sich für uns erstmal folgende Fragen ergeben:

1: Raid: den Hardware Raidcontroller nicht verwenden, richtig?
Für das OS kannst du das Raid1 lassen, außer das ist das Softwareraid, welchen einen speziellen Treiber benötigt und eh nur mit Windows und ESXi funktioniert.
2: Welches Filestystem sollte man bei der Proxmox Installation auswählen? zfs (Raid1)? Raid1 würde uns reichen.
Bei Hardwareraid ext4 belassen, sonst ZFS Raid1
3. System BIOS default? SCSI Controller - VirtIO SCSI
Ja den default Virtio SCSI Single lassen
4. HardDisk - Bus/Device - SCSI?
ja
5. Welchen CPU Type? Host?
Bei den alten Gold Generation 1 kannst du auch Host nutzen, bei neueren habe ich festgestellt, dass da manchmal schlechte Performance mit dem Typ host auftritt, aber wenn man den CPU Typ auswählt, welcher verbaut ist, passt die Performance wieder. Weiß nur noch nicht die Ursache.
Bei Linux kannst immer host benutzen.
6. Balloning an oder aus?

Was ist sonst noch zu beachten?
Gibt es irgendwo eine genaue Best Practices Anleitung?

Vielen Dank vorab und sonnige Grüße
 
  • Like
Reactions: Johannes S
x86-64-v2-AES oder besser funktioniert Grundsätzlich auch, der Unterschied ist dass bei "Host" dann unter Windows Server 2025 die Virtualization Based Security aktiviert ist und bei x86-64-v2-AES nicht. Das hat möglicherweise Auswirkungen auf die Performance.
Das VBS aktiviert sich nicht immer , nur weil man den Typ host benutzt. Scheinbar kommt das auch auf das verwendete iso an.
x86-64-v2 ist nicht unbedingt die ultimative Lösung. Ein RedHat10 bekommst du gar nicht mehr damit installiert, da dort mindestens x86-64-v3 verlangt wird, wie eigentlich auch bei Server 2025.
 
In der Tat war das VBS wohl der Hauptgrund für die Performance Probleme. Daher kommt eigentlich der CPU Type Host nicht mehr in Frage.
Wenn V2 auch nicht die „Ultimative Lösung“ ist, wie sieht es dann mit V3 und V4 aus? Der Prozessor müsste ja ein Skylake sein und laut einer Liste, die ich gefunden habe, mit V3 und sogar V4 kompatibel sein.

x86-64-v2: Compatible with Intel CPU >= Nehalem, AMD CPU >= Opteron_G3. Added CPU flags compared to x86-64-v1: +cx16, +lahf-lm, +popcnt, +pni, +sse4.1, +sse4.2, +ssse3.

x86-64-v2-AES: Compatible with Intel CPU >= Westmere, AMD CPU >= Opteron_G4. Added CPU flags compared to x86-64-v2: +aes.

x86-64-v3: Compatible with Intel CPU >= Broadwell, AMD CPU >= EPYC. Added CPU flags compared to x86-64-v2-AES: +avx, +avx2, +bmi1, +bmi2, +f16c, +fma, +movbe, +xsave.

x86-64-v4: Compatible with Intel CPU >= Skylake, AMD CPU >= EPYC v4 Genoa. Added CPU flags compared to x86-64-v3: +avx512f, +avx512bw, +avx512cd, +avx512dq, +avx512vl.

Also vielleicht lieber mit V3 testen?
 
  • Like
Reactions: Johannes S
Das VBS aktiviert sich nicht immer , nur weil man den Typ host benutzt. Scheinbar kommt das auch auf das verwendete iso an.
x86-64-v2 ist nicht unbedingt die ultimative Lösung. Ein RedHat10 bekommst du gar nicht mehr damit installiert, da dort mindestens x86-64-v3 verlangt wird, wie eigentlich auch bei Server 2025.

Ich war der Meinung VBS wird aktiviert wenn die Host CPU die entsprechenden Features unterstützt. In einem anderen Thread wurde ja schon festgestellt dass die Mindestanforderungen von Windows Server 2025 und Windows 11 24H2 nicht die selben sind trotz ähnlicher Codebasis (TPM / CPU usw.) ...

Stimmt, RHEL10 und Rocky 10 verlangen nun auch x86-64-v3, aber ich glaube Alma Linux 10 funktioniert noch mit x86-64-v2-AES

@schul-it
Wenn es die Host CPU hergibt und du wegen Migration keine niedrigere Version verwenden musst würde ich immer x86-64-v3 oder neuer nehmen, somit haben die VM's die Möglichkeit neuere CPU Befehle zu verwenden.
 
Last edited:
In der Tat war das VBS wohl der Hauptgrund für die Performance Probleme. Daher kommt eigentlich der CPU Type Host nicht mehr in Frage.
Wenn V2 auch nicht die „Ultimative Lösung“ ist, wie sieht es dann mit V3 und V4 aus? Der Prozessor müsste ja ein Skylake sein und laut einer Liste, die ich gefunden habe, mit V3 und sogar V4 kompatibel sein.

x86-64-v2: Compatible with Intel CPU >= Nehalem, AMD CPU >= Opteron_G3. Added CPU flags compared to x86-64-v1: +cx16, +lahf-lm, +popcnt, +pni, +sse4.1, +sse4.2, +ssse3.

x86-64-v2-AES: Compatible with Intel CPU >= Westmere, AMD CPU >= Opteron_G4. Added CPU flags compared to x86-64-v2: +aes.

x86-64-v3: Compatible with Intel CPU >= Broadwell, AMD CPU >= EPYC. Added CPU flags compared to x86-64-v2-AES: +avx, +avx2, +bmi1, +bmi2, +f16c, +fma, +movbe, +xsave.

x86-64-v4: Compatible with Intel CPU >= Skylake, AMD CPU >= EPYC v4 Genoa. Added CPU flags compared to x86-64-v3: +avx512f, +avx512bw, +avx512cd, +avx512dq, +avx512vl.

Also vielleicht lieber mit V3 testen?
Dann nimm doch Skylake. Ich habe bei Zen4 und Zen5 Epyc ebenfalls beobachtet, das einige Windows 2022 und 2025 mit CPU = host sehr träge sind. Und VBS ist da auch nicht aktiv. Stellt man dann um auf z.B. Epyc Zen4 um ist wieder alles schneller. Die Ursache haben wir noch nicht gefunden, da die VM jedes Mal die gleichen Features sieht. Irgendein Flag muss aber maskiert werden im Gegensatz zu host.
 
Naja, wenn man das umstellen kann ohne neu installieren zu müssen, dann kann man da ja mal in Ruhe testen. Im anderen Thread war man sich da ja nicht ganz so sicher.
 
Naja, wenn man mit v2 installiert, kann das Einschränkungen mitbringen. Aber alles andere sollte normal änderbar sein und bei den Epyc wo wir das Phänomen festgestellt haben, konnte man das ja mit einfachem umstellen beheben.
 
  • Like
Reactions: Johannes S
Ich konnte heute ein paar Tests auf einem anderen System machen. Trotz der Einstellung Host war VBS nicht aktiv und die Kiste lief ganz normal. Ich denke, wir werden es mit Host testen und schauen ob es mit dieser Hardware funktioniert. Wenn nicht, gleich neu installieren mit anderen Einstellungen, z.B. Skylake oder V3. Mit V4 ging heute trotz relativ neuer Hardware nichts.
Alles andere hat gepasst, dafür auch nochmal vielen Dank.
 
  • Like
Reactions: Johannes S