Hohe SWAP Auslastung

Warum haben denn beide Maschinen 4 Sockets mit je 8 Kernen? Der Host hat 1 Socket mit 16 Kernen (32x virtuell). Mit der Konfig der beiden VMs hast du dir selbst elend lange CPU-Wartezeiten eingebaut. Stelle mal um auf 1 Socket und 8 Kerne, damit sollten beide Maschinen flüssiger laufen.

PS: Und warum steht der Maschinentyp auf l440fx, wo du doch UEFI nutzt?
 
OP, post doch mal
cat /sys/module/zfs/parameters/zfs_arc_max
da kommt einfach nur ne 0...

Also unlimitiert. Würde den, wie von @UdoB in #3 bereits erwähnt, auf (z.B.) 16 GiB limitieren: [1].

Außerdem würde ich, zumindest in dem Szenario, KSM: [2a] [2b] vermeiden wollen.
KSM greift standardmäßig ab 80%. Die an die Gäste zugewiesenen 160 GiB sind alleine schon 83,3% (85,2%) der 192 GiB (187,8 GiB) des Hosts.

Auf die alles andere als optimalen VM-Konfigurationen wurde ja bereits eingegangen...

[1] https://pve.proxmox.com/pve-docs/chapter-sysadmin.html#sysadmin_zfs_limit_memory_usage
[2a] https://pve.proxmox.com/pve-docs/chapter-sysadmin.html#kernel_samepage_merging
[2b] https://pve.proxmox.com/wiki/Dynamic_Memory_Management#KSM
 
Hardware: Supermicro SC514 R407W
SSD: 2x Samsung SSD 870 Pro 256 GB fürs System, 2x Samsung 990 Pro 2 TB für MainData, jeweils im RAID 1

Die haben WriteBack, weil es im Best Practices für Win 2019 so stand.
1768537146368.png

Wo kann ich diese SSD Emulation und discard einstellen? Was ist das überhaupt?
GuestAgent läuft in aktuellster Version.
LSI53.... Virtuo SCSI single.... das muss ich wohl überlesen haben. Kann ich das im Nachhinein noch ändern?

Auf den VMs läuft unser ERP System. Auf dem einen der ApplicationServer. Auf dem zweiten der "FrontEnd" Server (Terminalserver).

Das mit dem CPU Type werde ich mal versuchen.

Danke.
 
@thorsten.franke
häng dich nicht am write back auf. Ich finde es einfach nicht schlau das für eine Windows VM zu verwenden, wenn die vermutlich wichtig ist. Da hätte ich lieber weniger Performance, dafür Sicherheit mit "no cache".

Gleichzeitig beantwortet es nicht, warum du LSI anstelle von VirtIO SCSI single verwendet hast.

Nimm es mir nicht übel, aber da sind so viele Fragezeichen und ein vermutlich vermurkstes Setup, wir können da nur wild rumstochern.
Mein Vorschlag wäre darum folgender:

Falls du die Windows Server VMs einfach wiederherstellen kannst, schmeiss die weg.
Falls nicht, fahr die VMs runter, mach ein Snapshot der VM, passe die Hardware den best practices (plus CPU Type X86-64-v2-AES) an, schau ob sie noch booten und keine Probleme machen.
Falls sie keine Probleme machen, mach ein Backup der beiden VMs.
Mach eine saubere Neuinstallation von Proxmox. Da du keinen(?) RAID controller verwendest, mache die Installation gleich direkt mit ZFS.
Dann hast du kein Mix zwischen ext4 und ZFS, das macht es bisschen einfacher und spart Anschlüsse und Festplatten.
Reimportiere die VMs vom Backup.
 
Hi Alle,

also ich habe jetzt folgendes getan und es scheint zu wirken.
Ich habe den CPU Typ auf X86-64-v2-AES gestellt. Ich habe bei den Vituellen HDDs discard und SSD Emulation eingeschalten.
Ich habe KSM Sharing ausgeschalten.
Ich habe das ZFS Limit auf 16 GB gesetzt.
Außerdem habe ich beiden VMs wie empfohlen 1 Socket und 8 CPUs zugewiesen.

Bis jetzt läufts prima.... ich warte mal ab, was noch passiert.

Danke erstmal an alle für die Tipps.

@IsThisThinkOn
Reinstall von Proxmox ist so ne Sache, da die Systeme benötigt werden. Wenn ich Sonntags mal echt nix zu tun habe, dann geh ich das an.
Aber so wie es jetzt aussieht läuft es wirklich deutlich besser.

Grüße
Thorsten
 
  • Like
Reactions: IsThisThingOn
KSM greift standardmäßig ab 80%. Die an die Gäste zugewiesenen 160 GiB sind alleine schon 83,3% (85,2%) der 192 GiB (187,8 GiB) des Hosts.
Will man nicht gerade dann (außer Compilance-/Security-Erwägungen sprechen dagegen) KSM verwenden, damit man noch Luft über hat?
Davon abgesehen scheint beim OP ja eh das Hauptproblem der CPU-Typ gewesen zu sein.