Windows nach import von VMWare SMB/CIFS Sehr Langsam

ragman1970

New Member
Feb 6, 2025
4
0
1
Germany
Hallo,

Wir haben ein Problem mit Importierten Windows VMs von VMware. Ich will den Technischen kram mal alles gerade weg lassen und hoffe das es eine "Schnell" Lösung gibt oder wir irgendwas nach dem Importieren(Migration Assistent) vergessen haben!

Fehlerbeschreibung:

Wir haben eine menge an Windows VMS (verschiedene Versionen bis 2025) die alle das gleiche Problem haben. Nach dem Importieren in Proxmox(alles auf dem neusten stand) ist der Datendurchsatz auf SMB/CFIS/Freigabe schlecht - sehr schlecht.

Dieses Problem zeigt sich Nur bei Importierten VMs, wenn wir im gleichen Cluster, gleicher Node, Gleiche VM Settings, Gleiche OS Version eine neue VM Installieren tritt das Problem nicht auf!

Wir beschäftigen uns schon einige Tage damit und haben soweit jeden möglichen Hinweis im Forum und Internet verfolgt.

Selbst Trimming an der VM nach dem Import unsw. hat nichts gebracht, die Vermutung geht dahin das es irgendwie am Importieren Image File liegen muss.

Nun die Kurze Frage, gibt es irgend etwas was wir noch nicht auf dem schirm haben, was man nach dem Import an der Windows VM noch machen muss/kann ?

Wie oben beschrieben, Problem tritt nur bei Importierten VMs auf. Gleiche System unsw. Neu Installierte VM alles Super, das Problem tritt nicht auf !!!

Alle VMware Treiber unsw. wurden vor dem Export De-Installiert. Es sind also keine Leichen mehr auf den Importierten VMs, wie gesagt auch die Importierte VM an sich läuft Super nur der Zugriff auf Freigaben halt nicht, egal ob auf Windows Freigabe oder Linux Samba Server alles völlig egal.

Vielleicht fällt einem hier direkt etwas ein oder hat ein gleiches Problem.

Zur HW kurz doch noch etwas auch wenn es damit wohl nichts zu tun hat

Cluster aus 5 Brandneuen AMD Cpu Based Server, NVMEs und CephFS Cluster. Wenn am Ende mehr Details benötigt werden sollten was ich nicht denke, kommen die gerne nach.

Vielen Dank schon einmal.
 
Last edited:
Was haben die Maschinen denn für eine Netzwerkkarte? Sollte optimalerweise VirtIO sein. Sonst testweise mal die Netzwerkkarte entfernt und eine neue hinzugefügt?
 
Last edited:
Ja
Was haben die Maschinen denn für eine Netzwerkkarte? Sollte optimalerweise VirtIO sein. Sonst testweise mal die Netzwerkkarte entfernt und eine neue hinzugefügt?
ja sind virtIO wie gesagt die Settings zur "Frisch" Installieretn VM sind zumindest "Optisch" 100% identisch. ( 1:1 ) wenn man sie sozusagen nebeneinander legt.
 
Der Netzwerktyp innerhalb Windows ist korrekt (also Domäne bzw. Privat)?

Hast du mal ein paar Zahlen? Über welchen Datendurchsatz sprechen wir? SMB 1.0 /CIFS aktiv?
 
ja domäne etc. in der Importierten VM ist alles ok und funzt auch Importierte vm < 30mb/s neu installierte 400+ das mit dem Network einmal komplett neu einhängen versuchen wir gleich nochmal. War mir nun nicht sicher ob das gemacht wurde.
 
So wir sind den Aktuellen hinweisen noch einmal nach gegangen, die haben erst einmal nichts gebracht. dabei haben wir uns gedacht, lass uns doch einmal ein http file transefer von einem Lokalen Server von einer Importierten und einer Frischen machen und siehe da, es hat sich rausgestellt das dieser auf der Importierten auch extrem Langsam ist und von der Frisch installierten alles ok. ^^ Also RDP auf die Importierte das arbeiten auf dieser, programmstart und so ist alles OK, bottet auch innerhalb von 3-6sekunden auch der lokale I/O ist ok nur der net zugriff scheint durch irgendwas gebremmst zu werden. Die VMs liegen auch im gleichen Netz/VLan, benutzen das gleiche Interface alles gleich. Firewall unsw. haben wir überall mal abeschaltet ändert nichts.
 
Vielleicht magst du jetzt ja doch mal etwas über deine Maschinen sagen. RAM-Ballooning ist aus? Sind die Einstellungen der migrierten VMs tatsächlich komplett identisch zur neu erstellten? Die gleichen VirtIO-Treiber sind installiert?

Irgendwas klingelt bei 30MB/s - aber leider funktioniert die Datenweiterleitung zum Langzeitspeicher gerade nicht. :-/

Das wäre ein weiterer Ansatz:
 
Last edited:
Kleiner Tip, im Gerätemanager die Ausgeblendeten Geräte anzeigen lassen und die alten VMware Devices entfernen. Manchmal hilft das.
 
  • Like
Reactions: Johannes S
Hallo zusammen,

es ist zwar nun schon einige Zeit ins Land gestrichen, jedoch ist das der einzige Post den ich dazu gefunden habe, mit dem exakten Problem.

Gibt es hier ein Lösung die für euch funktioniert hat?

Ich habe bereits alle Treiber deinstalliert, komme aber trotz ähnlicher Ceph-Settings auf die gleichen Werte circa 25 MB/s.
Ich bin auch auf einer AMD Plattform unterwegs: 3 identische Server

EPYC 9354 32-Core
512GB RAM
7x Kioxia NVME SSDs

Danke schonmal im voraus :D
 
Hallo zusammen,

es ist zwar nun schon einige Zeit ins Land gestrichen, jedoch ist das der einzige Post den ich dazu gefunden habe, mit dem exakten Problem.

Gibt es hier ein Lösung die für euch funktioniert hat?

Ich habe bereits alle Treiber deinstalliert, komme aber trotz ähnlicher Ceph-Settings auf die gleichen Werte circa 25 MB/s.
Ich bin auch auf einer AMD Plattform unterwegs: 3 identische Server

EPYC 9354 32-Core
512GB RAM
7x Kioxia NVME SSDs

Danke schonmal im voraus :D
25 MB/s ist eindeutig zu wenig.
Wie sieht das Netzwerksetup aus?
Sind die C-States im Bios deaktiviert? Das hat scheinbar bei AMD stärkere Auswirkungen.
Das ist kein generelles Problem, daher brauchen wir möglichst viele Informationen.
 
Es sind 3 Nodes mit jeweils 6 NICs:

2x 100G pro Node (Direkt Verkabelung zwischen den Nodes mit Fallback - hierbei kommen wir auf rados Werte von Read: 7348 MB/s und Write 5846 MB/s
1x 10G GUI only
1x 10G Corosync
2x 10G VM Traffic mit LACP Layer 3+4. Wobei diese aktuell nur in einen 1G Switch laufen, sollten trotzdem mehr sein als 25MB/s
(Hier habe ich auch schon LACP mit Active/Backup getestet, die Werte sind gleichbleibend schlecht.(Swtich unterstützt natürlich LACP))

C-States im BIOS werde ich heute Vormittag noch testen. Jedoch habe ich hier auch bei einer neu aufgesetzten Windows VM auf Proxmox den vollen Durchsatz gehabt ohne C-States im BIOS.

Danke für die schnelle Antwort :D
 
Dann zeig mal deine Ceph Konfiguration.
Soweit klingt das erst einmal gut.
 
Ceph-Configrution:


[global]
auth_client_required = cephx
auth_cluster_required = cephx
auth_service_required = cephx
cluster_network = 172.16.100.43/24
fsid = 8aca2a88-7840-4d87-b25a-031a69a19b00
mon_allow_pool_delete = true
mon_host = 172.16.100.41 172.16.100.42 172.16.100.43
ms_bind_ipv4 = true
ms_bind_ipv6 = false
osd_pool_default_min_size = 2
osd_pool_default_size = 3
public_network = 172.16.100.43/24

[client]
keyring = /etc/pve/priv/$cluster.$name.keyring
[client.crash]
keyring = /etc/pve/ceph/$cluster.$name.keyring

public_addr = 172.16.100.41
public_addr = 172.16.100.42
public_addr = 172.16.100.43

Brauchst du zudem auch noch die Crush Map, oder reicht das ?
 
Passt soweit, Public und Cluster Network sind gleich, dann passt das Netzwerk vermutlich, gerade wenn Rados Bench etwas vernünftiges liefert.
 
Dann zeig mir mal ein VM Konfiguration einer so langsamen VM, eventuell fällt da ja etwas auf.
 
Ich würde mal einen iperf Test zwischen zwei VMs durchführen.
Es ist gut möglich dass der TCP/IP Stack im Netzwerkadapter verhunzt ist. Gerade in aktuelleren Windows Server Versionen.
Per regedit könntest du auch mal die Interface Konfigurationen löschen. Sollten hier zu finden sein:
HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\Tcpip\Parameters