Massive Performance Probleme nach Migration von vmware auf proxmox

Dec 30, 2024
32
10
8
Hallo zusammen. ich habe nun begonnen, meine Projekte von VMWARE auf Proxmox zu migrieren, da ich nicht mehr bereit bin, die Kosten für Broadcom zu tragen. Ich habe die Migration meiner beiden Server über die Proxmox Migration durchgeführt. Das Ganze hat wunderbar funktioniert. Nachdem ich die Einstellungen ein wenig anpassen musste, um die richtigen Einstellungen für einen HPE Server ProLiant DL380 Gen11 Intel Xeon Gold 5415+ zu finden, sieht es jetzt so aus, wie auf dem Bild. Aber mein grösstes Problem ist jetzt folgendes. Auf Server 2 läuft eine Server/Client-Anwendung mit einem SQL-Server. Wenn ich die Software direkt auf dem Server starte, wird alles schnell geladen. Wenn ich es auf dem Client öffne, dauert es sehr lange. Allerdings habe ich dieses Phänomen erst nach der Migration. Was kann ich sonst noch tun, um dieses Problem zu lösen? Ich habe auch bei einem Ping zwischen 40 und 60ms. Aber die Karte ist mit 1GB angeschlossen. Auch der Transfer von ESXI auf Proxmox wurde mit fast 1GB angezeigt. Vielen Dank für Ihre Hilfe, ich bin ratlos.


1750074574840.jpeg1750056750658.png
 
Last edited:
Hallo ....
  • Was heisst "Server 2"?
  • Server 2 ist ein PVE?
  • Eine Windows-VM mit einem MS-SQL Server installiert?
  • Wo läuft der Client, ich nehme an "Fat"-Windows Client?
  • Haben Sie das SPICE getestet?
Die Ping-Zeiten deuten klar in eine Richtung wo die schlechten "Fat-Client" Performance herkommt.
  • Welchen Windows Treiober für as NIC haben Sie?
  • Haben Sie die WIn Virt-IO Treiber nach der Migration installiert?
  • Haben sie ähnliche Ping Zeiten bei einer anderen Windows-VM? (Migriert vs. Fresh Install?)


[Virtualization Support for SME and NGOs | DLI Solutions ]
 
Last edited:
  • Like
Reactions: news
Hallo Frank, entschuldige. Das ganze ist noch relativ neu alles. Also es gab vorher einen HP ProLiant mit VMWARE und zwei virtuellen Maschinen. Einmal DC/Fileserver und einmal einen weiteren Server (Beide Windows 2019 Std) mit einer Software welche Server / Client Seitig funktioniert. Auf dem zweiten Server läuft eine normale MS SQL Std. Datenbank. Clients sind alle Fat Clients. Die Verzögerung habe ich auch erst seit heute, also nachdem ich beide Maschinen auf dem Proxmox habe. Netzwerkkabel habe ich schon getauscht. Hätte mich aber auch gewundert, da der direkt Import mit knapp unter einem Giga lief.. Ich muss leider so doof fragen. SPICE?
 
  • Like
Reactions: FrankList80
Ich habe vor 10 Tagen meinen letzten Kunden auf PVE umgestellt (Gott bin ich froh!). Bisher gab es zwar hin und wieder Probleme, aber alles ließ sich beheben.

Was mir als erstes auffällt ist, dass die Maschine mit i440fx läuft, anstatt mit q35.

Als zweites würde ich die Treiber runterschmeißen und eine etwas ältere Version installieren. Hier im Forum wird immer die .248 empfehlen, ich selbst verwende die .266 auf allen Servern, bisher ohne Probleme.

Welche SQL-Server Edition läuft auf dem Server?
 
Last edited:
  • Like
Reactions: FrankList80
Das mit i44fx kam durch die Migration. Ehrlich gesagt weiss ich auch aktuell nicht wofür das ganze ist. Aber ich denke das ist am Anfang normal. Was meinst du mit den Treibern? Meinst du Die win-guest-tools? Die laufen aktuell auf .271. Der SQL Server wäre auch ein 2019er. Vor allem will ich heute Abend noch beide per inplace Upgrade auf Windows Server 2022 Std. bringen. Da 2025 noch nicht vom Hersteller freigegeben ist.

**Update** nun kenne ich den Unterschied. Kann ab 18:00 die Typen umstellen und habe dann auch einen Client zum testen.
 
Last edited:
Wie oben schon erwähnt, sollten moderne Betriebssysteme auf Q35 und nicht auf i440fx laufen. Häufig machen auch noch Reste der installierten VMWare Guest Tools gerne mal Probleme. Diese ggf. runterschmeißen von dem VMs.

Falls ZFS zum Einsatz kommt, wird die Performance des DCs nicht mehr wie erwartet laufen, wenn dieser gleichzeitig noch als SMB arbeitet (was man generell nicht machen sollte). Das abgeschaltete Caching im DC performt unter ZFS anders als im VMWare Storage.
 
Wenn die CPU auf "host" eingestellt ist wird unter Windows auch die VBS (Virtualization based Security) aktiviert, was unter KVM leider die Performance stark beeinflusst. Du könntest die CPU der VM auf x86-64-v2-AES umstellen dann wird VBS im Windows deaktiviert und die Performance sollte besser sein.
 
Wenn die CPU auf "host" eingestellt ist wird unter Windows auch die VBS (Virtualization based Security) aktiviert, was unter KVM leider die Performance stark beeinflusst. Du könntest die CPU der VM auf x86-64-v2-AES umstellen dann wird VBS im Windows deaktiviert und die Performance sollte besser sein.
Das mit dem Host hatte ich gemacht da ich einfach gegoogelt habe was wie wo am besten wäre. Viele hier im Forum sagen immer Host.
 
Wie oben schon erwähnt, sollten moderne Betriebssysteme auf Q35 und nicht auf i440fx laufen. Häufig machen auch noch Reste der installierten VMWare Guest Tools gerne mal Probleme. Diese ggf. runterschmeißen von dem VMs.

Falls ZFS zum Einsatz kommt, wird die Performance des DCs nicht mehr wie erwartet laufen, wenn dieser gleichzeitig noch als SMB arbeitet (was man generell nicht machen sollte). Das abgeschaltete Caching im DC performt unter ZFS anders als im VMWare Storage.
ZFS ist nicht in Gebrauch.
 
Dann würde ich an deiner Stelle beim Inplace-Upgrade beim ersten Neustart die Maschine stoppen und auf q35 umstellen und dann weiterlaufen lassen. Dann richtet er das gleich korrekt ein. Das ist die Hardwaregeneraton des Computers, i440fx ist alte Pentium-Hardware - für einen Windows10-basierten Server nicht das richtige.

PS: Ich meine ist das ein SQL-Express oder eine Standard bzw. Enterprise-Edition?
 
Dann würde ich an deiner Stelle beim Inplace-Upgrade beim ersten Neustart die Maschine stoppen und auf q35 umstellen und dann weiterlaufen lassen. Dann richtet er das gleich korrekt ein. Das ist die Hardwaregeneraton des Computers, i440fx ist alte Pentium-Hardware - für einen Windows10-basierten Server nicht das richtige.

PS: Ich meine ist das ein SQL-Express oder eine Standard bzw. Enterprise-Edition?
SQL Standard.
 
Wenn die CPU auf "host" eingestellt ist wird unter Windows auch die VBS (Virtualization based Security) aktiviert, was unter KVM leider die Performance stark beeinflusst. Du könntest die CPU der VM auf x86-64-v2-AES umstellen dann wird VBS im Windows deaktiviert und die Performance sollte besser sein.
Wo hast du das denn gelesen? Also meine Benchmarks zeigen da ein anderes Bild und welche OS sollen denn durch VBS langsamer werden?
 
Hallo zusammen. ich habe nun begonnen, meine Projekte von VMWARE auf Proxmox zu migrieren, da ich nicht mehr bereit bin, die Kosten für Broadcom zu tragen. Ich habe die Migration meiner beiden Server über die Proxmox Migration durchgeführt. Das Ganze hat wunderbar funktioniert. Nachdem ich die Einstellungen ein wenig anpassen musste, um die richtigen Einstellungen für einen HPE Server ProLiant DL380 Gen11 Intel Xeon Gold 5415+ zu finden, sieht es jetzt so aus, wie auf dem Bild. Aber mein grösstes Problem ist jetzt folgendes. Auf Server 2 läuft eine Server/Client-Anwendung mit einem SQL-Server. Wenn ich die Software direkt auf dem Server starte, wird alles schnell geladen. Wenn ich es auf dem Client öffne, dauert es sehr lange. Allerdings habe ich dieses Phänomen erst nach der Migration. Was kann ich sonst noch tun, um dieses Problem zu lösen? Ich habe auch bei einem Ping zwischen 40 und 60ms.
Diese hohen Latenzen im Netzwerk dürfen im LAN niemals auftauchen. Alles über 1ms ist auffällig und 40-60ms dürftest du nur haben wenn du in München auf einen Server in Flensburg zugreifst. ;)
Wie sieht denn die Netzwerkkonfiguration aus?
Aber die Karte ist mit 1GB angeschlossen. Auch der Transfer von ESXI auf Proxmox wurde mit fast 1GB angezeigt. Vielen Dank für Ihre Hilfe, ich bin ratlos.
 
  • Like
Reactions: FrankList80
Einen wunderschönen guten Morgen. Also die Umstellung auf q35 hat schon mal einiges gebracht. Ich konnte damit auch die Latenz schon auf 15ms absenken. Was schon mal gut ist, aber noch nicht perfekt. Auch der erste Inplace Upgrade hat geklappt. Hab nur vergessen noch umzustellen, dass es nun ein 22er ist. Weiss aber nicht wie relevant das ist. Lieber Falk, was genau würdest du gerne sehen bzgl. Netzwerk?
 
Wo hast du das denn gelesen? Also meine Benchmarks zeigen da ein anderes Bild und welche OS sollen denn durch VBS langsamer werden?

Ich habe das nur kurz mal auf einem Intel NUC mit Windows Server 2025 ausprobiert und zumindest die GUI Performance mit NoVNC war schon um einiges schlechter mit VBS aktiviert / CPU auf host. Habe Windows Server 2019 / 2022 nicht probiert, gibts da VBS überhaupt?
 
Diese hohen Latenzen im Netzwerk dürfen im LAN niemals auftauchen. Alles über 1ms ist auffällig und 40-60ms dürftest du nur haben wenn du in München auf einen Server in Flensburg zugreifst. ;)
Wie sieht denn die Netzwerkkonfiguration aus?
Welche Daten bräuchtest du denn? Die interfaces habe ich beim ersten Post mit eingebunden. Kann es noch was bringen beim Feld Multiqueue die Anzahl der vCPU anzugeben. Habe einiges gefunden, was sagt es würde das Netzwerk beschleunigen.
 
Last edited:
Ich habe das mal mit dem Multique probiert. Wenn ich von der Software den Planer aufrufe im Programm, dauert es 3 Sekunden. Wenn ich das am Fat Client mache, dauert dasselbe 18 Sekunden. Bin etwas am Ende mit meinem Latein und Google.
 
Welche Daten bräuchtest du denn? Die interfaces habe ich beim ersten Post mit eingebunden. Kann es noch was bringen beim Feld Multiqueue die Anzahl der vCPU anzugeben. Habe einiges gefunden, was sagt es würde das Netzwerk beschleunigen.
In deinem Screenshot sieht man nur, das du eine 10 Gigabit fähige Netzwerkkarte hast, die auf Gigabit läuft.
Wo ist denn die Netzwerkkarte angeschlossen? Wie ist der Switch konfiguriert?
Routest du eventuell zwischen verschiedenen Netzen? Eventuell wäre nachher auch der Typ der Netzwerkkarte und des Switches interessant.
 
Hallo zusammen. Also ich war nun heute Morgen eben noch mal vor Ort. Habe sicherheitshalber mal noch die Netzwerkkabel getauscht. Folgendes ist verbaut und in Benutzung:

Cisco SG200-50 50-Port Gigabit Smart Switch. Der Server ist an Port 3 angeschlossen.

1750235946850.png

Der Server hat keine VLANS oder der gleichen, da keine benötigt werden. Die Netzwerkkarte im Server welche von Haus aus mit verbaut wurde ist eine:

Broadcom P210tep NetXtreme-E Dual-port 10GBASE-T Ethernet PCIe Adapter - NIC

Was seit dem Wechsel des Kabels nun gut aussieht sind die Werte, jedoch muss irgendwo noch ein Problem sein, welches ich aber nicht finde. Wenn ich einen iperf3 mache von VM1 auf VM2 sieht das so aus

1750236309573.png

Wenn ich es nun vom Client mache auf die VM wo die SQL DB liegt:
1750236382928.png

Wenn ich es aber vom Client aus auf den Proxmox mache ist es wie folgt:

1750236427085.png

Wenn ich vom Fat Client noch auf die andere VM gehe kommt
1750236580609.png
 
Last edited:
WOHOOOO. Der scheiss Fehler ist gefunden. Einer der wenigen Unterschiede war noch der vorhandene Virenschutz Client. Der hat die Migration und wohl auch die Art und Weise wie der Proxmox die LAN Verbindung macht, nicht so cool gefunden. Nach einer Deinstallation läuft es nun wie es soll. Ich möchte mich bei euch allen bedanken. Es ist schön zu wissen, dass es hier so eine tolle Community gibt. Vielen lieben Dank.