Windows Server 2025 mit RDP / Festplatten Geschwindigkeit sehr schlecht

Tompa

Active Member
Jul 1, 2021
49
1
28
38
Hallo Zusammen

Wir haben vor kurzem einen Server mit Proxmox (Version aktuell 9.1.5) ausgestattet und drei Windows Server 2025 darauf installiert.
Einer davon fungiert als RDP Host Server.

Soweit hat auch alles geklappt mit der Installation, auch laufen alle Server.
Nun ist uns aber aufgefallen das vor allem der RDP Server bei kleinsten Aktionen eine sehr hohe Festplattenauslastung aufweist.
Zum testen haben wir mal eine Webseite geöffnet (Blick.ch) und die Festplattenaktivität gingt blitzartig auf 100% für ca. 15s.
Der Durchsatz lag aber nur bei 0.1Mbit/s.

1774895462765.png

Wird wiederum eine 450MB Datei aus dem Internet gezogen dann ist diese in ca. 10s heruntergeladen.

System:
Host: HPE ML110 Gen11 (Gold 5416S 16 Cores)
RAM: 128GB
Datenträger: SSD WD Red 1TB (jeweils in zwei Raid 1)
Anbindung an Proxmox mit HPE HW Raid Controller p408i
Datastorage: LVM

Der RAM und CPU liegen entsprechend im grünen Bereich egal ob 5 oder 10 User auf dem RDP sind.
Nun sind wir uns unsicher ob es einfach ein Anzeige Problem ist oder es wirklich irgendwo klemmt.
Gemerkt wurde es aufgrund dessen das Outlook extrem lange hatte bis es geöffnet wurde, denn auch wenn man Outlook auf dem RDP öffnet geht die Auslastung des Speichers gleich auf 100%.
Auch stürzt Outlook oder generell Office sehr oft ab, das konnte innerhalb von 15min vier mal beobachtet werden.
Wir vermuten das es was mit der Überlastung der Festplatten zu tun haben könnte.

Anbei die Einstellungen welche aktuell vorhanden sind.
VirtIO und Guest Agent sind installiert. (Version virtio-win-0.1.271-1)

1774895616925.png

Da es unser erstes Produktives System ist, sind wir nicht in allen Punkten so sattelfest. Die Einstellungen haben sicher noch Luft nach oben. ;-)
Darum würde ich mich über eure Hilfe freuen und bin über jeden Input froh. Vielleicht braucht es noch mehr Infos, last mich das bitte wissen.
Da das System bereits im Einsatz ist können wir nur behutsam Änderungen vornehmen.

Vielen Dank für eure Hilfe.
 
Einer davon fungiert als RDP Host Server.
Und nur der hat die Probleme? Worin unterscheiden die sich denn?
... und die Festplattenaktivität ging blitzartig auf 100% für ca. 15s.
Anderer Browser?
Auch stürzt Outlook oder generell Office sehr oft ab, das konnte innerhalb von 15min vier mal beobachtet werden.
Platte voll? ;-)

Sieht man auf dem PVE auch was? (I/O pressure)
 
WD Red SSD, consumer drives im HW RAID1, da kann man nicht viel an Performance erwarten. Gerade bei virtualisierten Terminalservern mit multiplen User sessions. Ihr habt hoffentlich nicht noch ZFS auf das HW RAID gepackt?

Wie sieht denn der I/O delay im PVE aus, wenn die Symptome auftreten?
 
hoffentlich nicht noch ZFS auf das HW RAID
Er schreibt was von LVM.
WD Red SSD, consumer drives
Ich hab die SN700 und die gehen einwandfrei. Hab zwar keinen TS laufen aber 'n WS2K25 auf meinem PVE-NAS und es läuft Chrome mit xx Tabs und meist noch ein FF. Outlook auch. Und es gibt keine Spikes auf den virtuellen Disks. Ich hab allerdings kein LVM sondern ZFS. :)
Das mit dem "Enterprise-SSD-only" halt ich für arg übertrieben. Jedenfalls die hier beschriebenen Symptome haben damit m.E. nix zu tun.
 
Und nur der hat die Probleme? Worin unterscheiden die sich denn?
Es ist effektiv nur beim RDP Host spürbar, auf dem DC und auch auf dem Fileserver sieht man keine solchen Schwankungen.
Unterschieden werden sie hauptsächlich durch die Ressourcen (CPU und RAM, Maschinentyp und Prozessor), Speicher ist jedoch der selbe.

Platte voll? ;-)
Anderer Browser kann ich noch versuchen, jedoch ist 100% bei 0.1Mbit/s schon recht unterirdisch.
Nein der Speicher ist nicht voll, da ist noch reichlich Platz verfügbar.
Sieht man auf dem PVE auch was? (I/O pressure)
1774938143273.png
Ich kann die Tabelle schlecht einschätzen ob das nun eher schlecht oder in Ordnung ist.
Ist natürlich eine Momentaufnahme, die Aufzeichnung läuft im 5min Takt, da kann man schlecht rausfinden ob genau dann wenn etwas abstürzt ein hohes I/O Aufkommen war.
 
WD Red SSD, consumer drives im HW RAID1, da kann man nicht viel an Performance erwarten. Gerade bei virtualisierten Terminalservern mit multiplen User sessions. Ihr habt hoffentlich nicht noch ZFS auf das HW RAID gepackt?

Wie sieht denn der I/O delay im PVE aus, wenn die Symptome auftreten?
Ja das ist uns bewusst, aber eben 0.1Mbit/s ist auch für eine WD Red massiv zu wenig.
Wobei ja der Download der grossen Datei recht flott ging, da würde ich nicht von einem Performance Problem sprechen.

Nein es ist kein ZFS im Spiel, das haben wir gewusst das dies keine schlaue Kombo ist.
 
Er schreibt was von LVM.

Ich hab die SN700 und die gehen einwandfrei. Hab zwar keinen TS laufen aber 'n WS2K25 auf meinem PVE-NAS und es läuft Chrome mit xx Tabs und meist noch ein FF. Outlook auch. Und es gibt keine Spikes auf den virtuellen Disks. Ich hab allerdings kein LVM sondern ZFS. :)
Das mit dem "Enterprise-SSD-only" halt ich für arg übertrieben. Jedenfalls die hier beschriebenen Symptome haben damit m.E. nix zu tun.
Single User Kram auf consumer drives - Glückwunsch, wenn es bei Dir läuft. Aber ein Terminalserver ist eine andere Liga als ein User, der ein bisschen surft oder einen Mailclient offen hat. Das sind komplett unterschiedliche Workloads.

Und nein, der Punkt bezüglich consumer drives im professionellen Umfeld (ein TS ist kein Schnäppchen und wird zu 99,9% produktiv genutzt) ist nicht arg übertrieben. Die Symptome (100% Auslastung, aber nur wenig wirklicher Durchsatz) sind typisch für Storage-Latenz bzw. I/O-Stalls. Die SSDs sind für niedrigere Dauerlast und sequentielle writes optimiert, also eher für Dateiserver/NAS. Windows Terminalserver mit RDP benötigt aber random write mit Sync, konstante Latenz hohe IOPS bei kleinen Blöcken. Der HW RAID Controller macht es zudem nicht besser. Kein sauberes TRIM, GC läuft u.U. blind, write cache + flush Chaos.

Gerade Outlook/Office ist bei konkurrierendem Zugriff empfindlich, was I/O-Timeouts und sich blockierende writes angeht.
 
Single User Kram auf consumer drives - Glückwunsch, wenn es bei Dir läuft. Aber ein Terminalserver ist eine andere Liga als ein User, der ein bisschen surft oder einen Mailclient offen hat. Das sind komplett unterschiedliche Workloads.

Und nein, der Punkt bezüglich consumer drives im professionellen Umfeld (ein TS ist kein Schnäppchen und wird zu 99,9% produktiv genutzt) ist nicht arg übertrieben. Die Symptome (100% Auslastung, aber nur wenig wirklicher Durchsatz) sind typisch für Storage-Latenz bzw. I/O-Stalls. Die SSDs sind für niedrigere Dauerlast und sequentielle writes optimiert, also eher für Dateiserver/NAS. Windows Terminalserver mit RDP benötigt aber random write mit Sync, konstante Latenz hohe IOPS bei kleinen Blöcken. Der HW RAID Controller macht es zudem nicht besser. Kein sauberes TRIM, GC läuft u.U. blind, write cache + flush Chaos.

Gerade Outlook/Office ist bei konkurrierendem Zugriff empfindlich, was I/O-Timeouts und sich blockierende writes angeht.
Wir haben die gleichen SSD auch bei uns verbaut der Unterschied ist jedoch das es sich um einen anderes Server Modell handelt DL380 Gen10 und das es auf Esxi 8.0 läuft.
Auch mit HW Raid Controller und Raid 1, da haben wir keine solchen extremen Lastspitzen auch wenn sich mehrere Personen auf dem RDP befinden.
Wir wollen ja weg von Esxi.... ;)
 
Auch mit HW Raid Controller und Raid 1, da haben wir keine solchen extremen Lastspitzen auch wenn sich mehrere Personen auf dem RDP befinden.
Das ist hier so 'ne Standardantwort, "Consumer SSD? Weg damit - Problem gelöst". :( Überzeugt mich nie so recht, aber leider kann ich Dir auch keine andere einfache Lösung nennen.

Also ... der RDS ist neu und testweise auf PVE, richtig? Von wievielen (Test-)Usern reden wir denn da? 500? Oder eher 5? Und wann geht die Disk auf 100%? In einer RD-Session oder lokal auf dem Server? Nur wenn erst ein paar User drauf sind oder schon bei einem einzigen?

Und ... mich irritiert das numa=1 ... Ist auf der Maschine m.E. nicht nötig. Ob es schadet, darüber gibt's wie immer unterschiedliche Meinungen. Aber wenn es meiner wär, würd ich's mal rausnehmen.

Dann laß vielleicht mal den CrystalDiskMark laufen, ich finde, der sagt schon was aus. Auf meinen Consumer-SSD sieht das so aus:
1774955379038.png

Stimmt schon, die IOPS sind nun nicht die Welt, aber ... wenn ich z.B. auf den RDS in unsrer Firma gucke, mit 50 Sessions, der braucht CPU. I/O ist da völlig vernachlässigbar. o_O
 
Last edited:
Nun ja SSDs mit plp können rein technisch Dinge, die Consumer-ssfs nicht können, das wurde auch mal sehr erschöpfend hier im Forum ausdiskutiert:

Was ich nicht überzeugend finde: Aus der privaten "hier geht es"-Erfahrung auf Anforderungen für einen multi-user-Terminalserver im Unternehmenseinsatz zu schließen, aber jeder wie er mag.
 
Last edited:
  • Like
Reactions: UdoB
Das ist hier so 'ne Standardantwort, "Consumer SSD? Weg damit - Problem gelöst". :( Überzeugt mich nie so recht, aber leider kann ich Dir auch keine andere einfache Lösung nennen.

Also ... der RDS ist neu und testweise auf PVE, richtig? Von wievielen (Test-)Usern reden wir denn da? 500? Oder eher 5? Und wann geht die Disk auf 100%? In einer RD-Session oder lokal auf dem Server? Nur wenn erst ein paar User drauf sind oder schon bei einem einzigen?

Und ... mich irritiert das numa=1 ... Ist auf der Maschine m.E. nicht nötig. Ob es schadet, darüber gibt's wie immer unterschiedliche Meinungen. Aber wenn es meiner wär, würd ich's mal rausnehmen.

Dann laß vielleicht mal den CrystalDiskMark laufen, ich finde, der sagt schon was aus. Auf meinen Consumer-SSD sieht das so aus:
View attachment 96836

Stimmt schon, die IOPS sind nun nicht die Welt, aber ... wenn ich z.B. auf den RDS in unsrer Firma gucke, mit 50 Sessions, der braucht CPU. I/O ist da völlig vernachlässigbar. o_O

Habe den Test auch gemacht.
Sieht schon etwas anders aus als bei dir. Die Werte hauen einem absolut nicht vom Hocker.
Nur liegts an der SSD selber oder an fehlenden Treibern?

Gemäss Specs von WD müssten über 500Mbit/s drin liegen, wenn man dann noch etwas abzieht wegen HW Raid und Virtualisierung sollte doch mind. noch die Hälfte drin liegen.

1774982707150.png

Hier noch der Test von unserem Server mit den gleichen SSD's.
Auch nicht der Oberhammer aber schon einiges Performanter als mit dem Proxmox Setup.

1774983898248.png

Noch als Randinfo, mit CrystalDiskInfo wird das Laufwerk auf dem Server gar nicht erst gefunden, Meldung keine Disk erkannt.
 
Last edited:
ESXi vs. Proxmox kann man nie 1:1 vergleichen, da ESXi anders arbeitet und einiges „kaschiert“. ESXi puffert writes wesentlich aggressiver und verzögert Flushes. Die Interaktion mit HW RAID ist auch anders als bei Proxmox. Und um wirkliche Vergleiche ziehen zu können im Sinne „Da läuft es besser“: ist das denn der exakt gleiche Workload? Das kann man auf einem TS schwerlich nachstellen.

CrystalDiskMark ist wenig aussagekräftig. Reale workloads für den Storage innerhalb der VM simuliert man besser mit DiskSpd (in der Shell).

Code:
diskspd.exe -c5G -d60 -r -w30 -b4K -o32 -t4 -Sh -L testfile.dat

- kleine Blöcke (b4k)
- random I/O (r)
- write 30% / read 70% (w30)
- queue depth (o32), um multiuser zu „simulieren“
- Threads (t4)
- kein OS cache (Sh)
- L (Latenz)

Den Test mehrfach wiederholen. Wichtig ist hier die Latenz. Grenzwertig sind Avg. 3-11ms und 99th 20-50ms.

Und noch mal was zum Thema consumer vs. enterprise SSDs: das Thema wurde schon mehr durchgekaut als eine Palette Kaugummis. Wer im Forum sucht bzw. der Suche mächtig ist, findet genügend Erklärungen zum Thema und was die Laufwerkstypen voneinander unterscheidet.
 
Hier noch der Test von unserem Server mit den gleichen SSD's.
Bin letztes Jahr umgestiegen von VMware. Hab übrigens die exakt gleiche CPU wie bei Euch (im Homelab). Und es ist definitiv nix langsamer geworden unter PVE. Das ist grundsätzlich schon ziemlich gut. Also ... irgendwo hakt's bei der Konfig.
Datenträger: SSD WD Red 1TB (jeweils in zwei Raid 1)
Anbindung an Proxmox mit HPE HW Raid Controller p408i
Kannst Du das noch näher erläutern, ggf. Screenshot vom iLO.
Hab letzte Woche erst 'n ProLiant Gen10 umgestellt. Der hat SAS SSD (die berühmte Enterprise Class). Bei Euch sind SATA, richtig? Ist natürlich schon ein Unterschied... Aber: wie gesagt, wenigstens dieselbe Leistung wie unter ESXi muß drin sein. Hab ich noch nie anders erlebt.
 
Last edited: