Guten Abend,
ich sitze gerade vor "meinem" ersten Proxmox-Produktivserver und bin der Meinung, dass ZFS nicht in die Pötte kommt.
Gerade getestet mit CrystalDiskmark sind es etwa 30 MB/s 4K QD32 Read.
Ein paar Eckdaten zum Server und der Installation:
CPU: Xeon E5-1620
RAM: 64GB, ZFS Max ARC=6GB
Controller: Broadcom SAS 9300-8i im IT-Mode
HDDs: 4x Consumer Samsung 850 Pro striped mirror, secure erase durchgeführt, 20% für spare freigelassen
ZIL: Intel 750 NVMe PCIe
ZPOOL manuell erstellt mit ashift=13
zfs set atime=off pool1
zfs set compression=lz4 pool1
zfs set recordsize=32K pool1
zfs set sync=always pool1
Die ZFS-Datasets sind pro VM als als Verzeichnis eingebunden.
betroffene VM: Windows 2016 Standard, 32 GB RAM, 6 vCPUs, Cache=writethrough, Virtio 0.1.141
Mir kommt's vor, als läge es am Gast bzw. KVM. Der Durchsatz auf dem Host scheint mir ok:
Das System erreichte bei der Grundinstallation (PVE 5.0) mit oben genannter Konfig schon mal gute Werte. Irgendwann mit dem Updates kamen die Windows 2016 Bluescreens. Nach viel Trial and Error und dem neusten Kernel, läufts wieder stabil, aber eben mit relativ bescheidenem Durchsatz.
Ab wann die Performance einbrach, kann ich nicht sagen.
Ich habe nun schon an allen Werten herumgedreht und auch ältere VirtIO-Treiber installiert... alles ohne Erfolg. Sync disable oder always bringt keine Veränderung. Lesen ist ja schon das Problem.
Habe testweise einen Pool auf der NVMe erstellt und ein zusätzliches Laufwerk an die VM gehängt und getestet -> exakt gleich schlechte Werte.
Hat jemand eine Idee?
Danke.
ich sitze gerade vor "meinem" ersten Proxmox-Produktivserver und bin der Meinung, dass ZFS nicht in die Pötte kommt.
Gerade getestet mit CrystalDiskmark sind es etwa 30 MB/s 4K QD32 Read.
Ein paar Eckdaten zum Server und der Installation:
CPU: Xeon E5-1620
RAM: 64GB, ZFS Max ARC=6GB
Controller: Broadcom SAS 9300-8i im IT-Mode
HDDs: 4x Consumer Samsung 850 Pro striped mirror, secure erase durchgeführt, 20% für spare freigelassen
ZIL: Intel 750 NVMe PCIe
ZPOOL manuell erstellt mit ashift=13
zfs set atime=off pool1
zfs set compression=lz4 pool1
zfs set recordsize=32K pool1
zfs set sync=always pool1
Die ZFS-Datasets sind pro VM als als Verzeichnis eingebunden.
betroffene VM: Windows 2016 Standard, 32 GB RAM, 6 vCPUs, Cache=writethrough, Virtio 0.1.141
Mir kommt's vor, als läge es am Gast bzw. KVM. Der Durchsatz auf dem Host scheint mir ok:
Code:
root@proxmox:~# pveperf /pool1/
CPU BOGOMIPS: 57601.92
REGEX/SECOND: 1484395
HD SIZE: 461.52 GB (pool1)
FSYNCS/SECOND: 4885.31
DNS EXT: 32.49 ms
Code:
root@proxmox:~# dd if=/pool1/vm200/images/200/vm-200-disk-1.raw bs=4K | pv | dd of=/dev/null
^C66GiB 0:00:18 [ 318MiB/s] [ <=> ]
1546134+0 records in
1546133+0 records out
12369048+0 records in
12369048+0 records out
6332960768 bytes (6.3 GB, 5.9 GiB) copied, 18.7575 s, 338 MB/s6332952576 bytes (6.3 GB, 5.9 GiB) copied, 18.7575 s, 338 MB/s
Code:
root@proxmox:~# dd if=/pool1/vm200/images/200/vm-200-disk-1.raw bs=32K | pv | dd of=/dev/null
^C.6GiB 0:00:55 [ 923MiB/s] [ <=> ]
92924636+0 records in
92924635+0 records out
1451952+0 records in
1451951+0 records out
47577413120 bytes (48 GB, 44 GiB) copied, 55.7338 s, 854 MB/s
Code:
pool: pool1
state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
the pool may no longer be accessible by software that does not support
the features. See zpool-features(5) for details.
scan: scrub repaired 0B in 0h8m with 0 errors on Sat Dec 9 02:30:31 2017
config:
NAME STATE READ WRITE CKSUM
pool1 ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
scsi-350025388701934c1-part1 ONLINE 0 0 0
scsi-350025388401cc58b-part1 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
scsi-350025388701934a4-part1 ONLINE 0 0 0
scsi-350025388401cc5a0-part1 ONLINE 0 0 0
logs
nvme-INTEL_SSDPEDMW400G4_CVCQ64310020400AGN-part1 ONLINE 0 0 0
errors: No known data errors
Code:
root@proxmox:~# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
pool1 760G 274G 486G - 43% 36% 1.00x ONLINE -
Das System erreichte bei der Grundinstallation (PVE 5.0) mit oben genannter Konfig schon mal gute Werte. Irgendwann mit dem Updates kamen die Windows 2016 Bluescreens. Nach viel Trial and Error und dem neusten Kernel, läufts wieder stabil, aber eben mit relativ bescheidenem Durchsatz.
Ab wann die Performance einbrach, kann ich nicht sagen.
Ich habe nun schon an allen Werten herumgedreht und auch ältere VirtIO-Treiber installiert... alles ohne Erfolg. Sync disable oder always bringt keine Veränderung. Lesen ist ja schon das Problem.
Habe testweise einen Pool auf der NVMe erstellt und ein zusätzliches Laufwerk an die VM gehängt und getestet -> exakt gleich schlechte Werte.
Hat jemand eine Idee?
Danke.
Last edited: