Liebe Proxmox Freunde
wir betreiben mehrere Proxmox Server teils mit Subscription, teils ohne. Es gab bisher keine grossen Schwierigkeiten und die virtuellen Maschinen liefen sehr effizient.
Seit der Kernel Version 5.13 stellen wir einige Veränderungen fest die uns etwas beunruhigen. Es ist bisher nicht generell ein Problem, aber tritt bei einigen Kunden nach den letzten Updates auf. Wir haben verschiedene Geräte von Servern über PCs am laufen und hier zwei Beispielkonfigurationen:
Fall 1:
AMD EPYC 7232P auf Gigabyte Board MZ31-AR0-00
128 GB DDR4
2x Samsung SSD PM883 960GB ZFS MIRROR
2x Samsung SSD PM883 1820GB ZFS MIRROR
Bei der Installation vor den Weihnachtsferien haben wir Kernel 5.11 auf den Maschinen gehabt und 2 kleine Terminalserver zu 5 Benutzer laufen lassen.
Die Server laufen mit Windows 10. Die Maschine wurde geupgraded auf die aktuelle Version PVE 7.1-10.
Wir haben mit der Version 5.13 massive Performanceprobleme und ein sehr träges Verhalten bemerkt. Die VM war bedienbar aber der Explorer reagierte sehr langsam und träge. Der opt in Kernel 5.15 hat auch etwas gebracht.
Ich habe schon einges probiert: wie der Wechsel von i440fx auf q35. Die Umstellung von e1000 auf virtio mit Multiqueue usw.
Es läuft auch schon etwas besser aber es ist nicht wirklich gut. Hat jemand ähnliche Erfahrungen und kann hier einen Rat geben?
Hier die Config (MBR Modus):
Fall 2:
i7-8700K auf X11SCA-F
64GB GB DDR4
2x Samsung SSD PM883 960GB ZFS MIRROR
Machine: pc-i440fx 5.1
Die VM ist nach dem Upgrade derart langsam geworden das ich zurück zum Kernel 5.11 wechseln musste. Es war unbedienbar.
Version 5.15 habe ich installiert aber noch nicht neu gestartet.
Das sind nur zwei von mehreren Beispielen. Es trifft den einen oder anderen Server stärker oder schwächer.
Die Frage ist ob jemand einen Rat hat oder Ideen woran die miese Performance liegen könnte?
wir betreiben mehrere Proxmox Server teils mit Subscription, teils ohne. Es gab bisher keine grossen Schwierigkeiten und die virtuellen Maschinen liefen sehr effizient.
Seit der Kernel Version 5.13 stellen wir einige Veränderungen fest die uns etwas beunruhigen. Es ist bisher nicht generell ein Problem, aber tritt bei einigen Kunden nach den letzten Updates auf. Wir haben verschiedene Geräte von Servern über PCs am laufen und hier zwei Beispielkonfigurationen:
Fall 1:
AMD EPYC 7232P auf Gigabyte Board MZ31-AR0-00
128 GB DDR4
2x Samsung SSD PM883 960GB ZFS MIRROR
2x Samsung SSD PM883 1820GB ZFS MIRROR
Bei der Installation vor den Weihnachtsferien haben wir Kernel 5.11 auf den Maschinen gehabt und 2 kleine Terminalserver zu 5 Benutzer laufen lassen.
Die Server laufen mit Windows 10. Die Maschine wurde geupgraded auf die aktuelle Version PVE 7.1-10.
Wir haben mit der Version 5.13 massive Performanceprobleme und ein sehr träges Verhalten bemerkt. Die VM war bedienbar aber der Explorer reagierte sehr langsam und träge. Der opt in Kernel 5.15 hat auch etwas gebracht.
Ich habe schon einges probiert: wie der Wechsel von i440fx auf q35. Die Umstellung von e1000 auf virtio mit Multiqueue usw.
Es läuft auch schon etwas besser aber es ist nicht wirklich gut. Hat jemand ähnliche Erfahrungen und kann hier einen Rat geben?
Hier die Config (MBR Modus):
root@pve:~# cat /etc/pve/qemu-server/102.conf
agent: 1,fstrim_cloned_disks=1
balloon: 0
boot: order=scsi0;ide2;net0
cores: 12
cpu: host
ide2: none,media=cdrom
machine: pc-q35-6.1
memory: 32000
meta: creation-qemu=6.1.0,ctime=1641388443
name: TERMINAL
net0: virtio=**:**:**:**:**:**,bridge=vmbr1,queues=4
numa: 0
onboot: 1
ostype: win10
scsi0: local-zfs:vm-102-disk-0,discard=on,mbps_wr=250,mbps_wr_max=350,size=300G,ssd=1
scsihw: virtio-scsi-pci
sockets: 1
startup: order=2,up=15
tablet: 1
Fall 2:
i7-8700K auf X11SCA-F
64GB GB DDR4
2x Samsung SSD PM883 960GB ZFS MIRROR
Machine: pc-i440fx 5.1
Die VM ist nach dem Upgrade derart langsam geworden das ich zurück zum Kernel 5.11 wechseln musste. Es war unbedienbar.
Version 5.15 habe ich installiert aber noch nicht neu gestartet.
root@pve:~# cat /etc/pve/qemu-server/100.conf
agent: 1,fstrim_cloned_disks=1
balloon: 0
boot: dcn
bootdisk: scsi1
cores: 10
cpu: host
ide0: none,media=cdrom
memory: 45000
name: TSPLUS
net0: virtio=**:**:**:**:**:**,bridge=vmbr0,queues=8
numa: 0
onboot: 1
ostype: win10
scsi1: local-zfs:vm-100-disk-0,discard=on,mbps_wr=300,mbps_wr_max=400,size=550G,ssd=1
scsihw: virtio-scsi-single
sockets: 1
Das sind nur zwei von mehreren Beispielen. Es trifft den einen oder anderen Server stärker oder schwächer.
Die Frage ist ob jemand einen Rat hat oder Ideen woran die miese Performance liegen könnte?