Server nach Migration von VMware sehr langsam!

WWW

New Member
Aug 6, 2024
5
0
1
Hallo zusammen,

wir haben eine Testumgebung mit der aktuellen Proxmox-Version gebaut, dabei handelt es sich um ein Cluster mit aktuell 3 Nodes ("alte" ESXI/VMWare Server).
Der gemeinsame Storage auf den alle Nodes zugreifen sollen, besteht aus einem QNAP der per ISCSI angebunden ist.
Über das ESXI Tool wurden die Maschinen (Win Server 2016/19/22) direkt vom ESXI-Host auf den Storage migriert, was soweit auch recht gut geklappt hat. Nach anfänglichen Problemen mit dem Bootdevice und daraus resultierendem Bluescreen, laufen die Maschinen jetzt erstmal. Wenn man als alleiniger User raufgeht, laufen die auch halbwegs vernünftig aber bei einem Terminalserver zb. ,wo etwas Workload ist, laden die Programme (Outlook, Adobe, Firefox) ewig und stürzen oft mit "keine Rückmeldung" ab!
Hardware technisch wurde in Proxmox schon mit RAM und CPU in sämtlichen Variationen getestet, hat jmd vllt. eine Idee wo sich das Bootleneck befinden könnte?

Vielen Dank für die Hilfe! :)
 
Meist besteht die Problematik, dass
a) das Storage auf dem die VMs liegen langsam ist
b) die VM nicht virto-scsi als Disks konfiguriert haben => https://www.youtube.com/watch?v=8Z9Zvt2RxlA&t=197s
c) die Guest-Tools nicht installiert sind

Wie ist die VM denn konfiguriert? Poste mal den Output von "qm config <id-der-vm>".
Hier ist ein "Best-practice": https://pve.proxmox.com/wiki/Windows_10_guest_best_practices

Uebrigens bringt Proxmox ein Importtool mit, mit dem Du die VMs "sauber" in die Proxmox Umgebung importieren kannst. Die einzige Arbeit besteht dann nur noch darin die Disk in virtio-scsi umzuwandeln und die Guest Tools doppelzuklicken: https://pve.proxmox.com/wiki/Migrate_to_Proxmox_VE#Automatic_Import_of_Full_VM
 
Last edited:
  • Like
Reactions: WWW
Hallo, danke schon mal für die schnellen Antworten! :cool:

Die Guest-Tools sind installiert und die VMWare Tools wurden vor dem migrieren bereits sauber deinstalliert!

qm config wirft das aus!

1722949827172.png

@devaux

über das Importtool von Proxmox wurde es gemacht! :)
 
Last edited:
Hmm. Sieht nicht schlecht aus eigentlich. Stelle den Cache der Disk mal auf "writeback".
  • For your virtual hard disk select "SCSI" as bus with "VirtIO SCSI" as controller. Set "Write back" as cache option for best performance (the "No cache" default is safer, but slower) and tick "Discard" to optimally use disk space (TRIM).

Wie ist der Datentransfer ueber das QNAP und iSCSI generell? Hast mal eine zweite Disk in der VM eingebunden und dann eine groessere Datei von C: auf D: kopiert? Ging das schnell oder brach irgendwann (wenn der Cache/RAM des Hosts vollgelaufen ist) die Kopiergeschwindigkeit ein?

Lagen die VMs vorher mit VMWare auch auf dem gleichen QNAP ueber iSCSI?
Mit welcher Geschwindigkeit ist das iSCSI angebunden? Welche Disks sind dort drin verbaut?
 
Last edited:
  • Like
Reactions: WWW
Das mit dem kopieren könnte ich morgen mal ausprobieren, im QNAP sind 10x 12TB HDD´s, falls das noch interessant ist.
Die machen es grundsätzlich ja schon langsamer aber so doch auch nicht!? :D

Vorher lagen die VMs auf dem jeweiligen Host per SAS angebunden, die wurden migriert und als neuer Storage der QNAP gewählt.
Der QNAP ist mit Glasfaser am Switch und von da aus per Ethernet zu den Host´s.
 
Das mit dem kopieren könnte ich morgen mal ausprobieren, im QNAP sind 10x 12TB HDD´s, falls das noch interessant ist.
Die machen es grundsätzlich ja schon langsamer aber so doch auch nicht!? :D

Vorher lagen die VMs auf dem jeweiligen Host per SAS angebunden, die wurden migriert und als neuer Storage der QNAP gewählt.
Der QNAP ist mit Glasfaser am Switch und von da aus per Ethernet zu den Host´s.

Mit 10x12TB spinning Disks wirst mit Virtualisierung keinen Spass haben - Gerade wenn diese dann noch auf 3 Nodes verteilt werden.
Sollte es sich dann noch um 1GBit/s Glas handeln, so kannst Du Dir in etwa ausrechnen wie viel dann pro Host noch uebrig bleibt...

Bei lokalem SAS hast normalerweise mindestens 12GBit/s. Pro Disk/Host, da die Disks ja direkt angeschlossen sind.
 
Du solltest bei den VMs am besten den CPU Typ host nutzen wenn die CPUs im Cluster alle die gleiche Generation haben. Wenn es verschiedene CPUs sind, dann den Typ der ältesten CPU im Cluster nutzen. Das bringt bei Windows eine Menge.

Wenn die Programme langsam laden liegt es in der Regel am langsamen Storage, was mit den Random I/Os nicht klar kommt.
 
  • Like
Reactions: WWW
Der QNAP hängt mit 10Gbit am Switch!

Der Storage war auch so unser Gedanke da es da am logischsten erscheint zu klemmen!
Es würde noch ein Truenas Server mit 6x8tb ssd zur Verfügung stehen, der hat allerdings kein Glasfaser, wäre da Besserung zu erwarten?

@Falk R.

Das stand vorher auf Host CPU war damit nur ein test, macht es Performance mäßig sinn wenn man erstmal keine Maschinen verschieben will, die richtige CPU des jeweiligen Hosts zu wählen auch wenn die sich in der Architektur der Generation unterscheiden aber jede vm erstmal auf ihrer Node bleibt bis es sauber läuft? Die nodes sollen in naher Zukunft, eh nochmal gewechselt werden
 
Solange ihr keine live Migration von einer neueren CPU zu einer älteren machen wollt, würde ich immer host einstellen.

Klar sind SSDs immer besser als HDDs, bei VMs braucht man ja I/O Performance und das auch noch Random. Also sind SSDs immer besser als drehender Rost.
 
  • Like
Reactions: WWW
Mit "Kein Glasfaser" meinst Du 1GBit Ethernet? Ich denke nicht, dass Du dann viel gewinnen wirst, denn da wirst wohl max. zwischen 100 und 120 Megabyte pro Sekunde zum Host bringen - zu EINEM Host waehrend die anderen gerade idlen.

Da die Proxmox Nodes auch nur je 1Gb/s zu haben scheinen, wirst mit diesem Setup wohl nie gluecklich. Da warst Du mit dem alten Setup und direkt angeschlossenen Platten um ein vielfaches besser bedient.
 
  • Like
Reactions: WWW
Ja genau, der ist per Ethernet angeschlossen noch! Das muss so jetzt auch nicht auf Dauer bleiben, wie gesagt, die Hosts und auch der Storage kann alles ein Upgrade kriegen! Dann wäre da der way to Go Storage mit ssd und Glasfaser und die nodes ebenfalls, richtig?
 
Wir haben derzeit gut 30 VM's/CT's auf 4 alten T620/T430 laufen, alle per 10Gb nfs an (8+2p)x4TB altem 4core E5-2609v2 Server. Gemittelt über 24h (sar) wird 500KB/s geschrieben und 7MB/s vom Fileserver gelesen, keinerlei I/O Probleme die zu stockenden Maschinen führen. Mit 1Gb kann man auch gut fahren, 10Gb macht Migrieren von VM's etwas schneller, aber ging auch vormals noch vor 10Gb als Migrationsnetz mit 1Gb noch flüssig.
 
  • Like
Reactions: WWW
Mit Gigabit kommst du trotzdem besser klar, wenn da SSDs im Background werkeln. Das Problem ist selten das 110MB/s Limit sondern die I/O Performance. Mit HDDs erreichst du maximal 120 I/O pro DIsk und mit einer SSD nunmal ein vielfaches und die ZUgriffszeiten sind deutlich besser.

Wenn ihr da etwas neues plant, am besten interne SSDs und 25GBit + Netzwerk.
 
  • Like
Reactions: WWW

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!