Schlechte Performance ZFS

Wenn du sequentiell eine Datei kopierst wird die nicht durch den ARC gehen, das wäre total kontraproduktiv. Sequentielles Schreiben geht immer am Cache vorbei, wenn es als solches erkannt wird.
Also mit dem Schreiben bin ich eigentlich vollends zufrieden, das Lesen könnte noch schneller als 50MB/s sein.

EDIT: Anscheinend kann das FS doch mit 130MB/s??:

root@proliant:/dev/disk/by-id# zpool status
pool: Raid
state: ONLINE
scan: scrub in progress since Sun Mar 10 00:24:01 2019
7.66T scanned out of 9.88T at 135M/s, 4h47m to go
0B repaired, 77.51% done
config:

NAME STATE READ WRITE CKSUM
Raid ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
wwn-0x5000c50090d9b379 ONLINE 0 0 0
wwn-0x5000c50090d90d49 ONLINE 0 0 0
wwn-0x5000c500a83203d3 ONLINE 0 0 0
logs
ata-INTEL_SSDSC2BA100G3_BTTV332606ZV100FGN-part1 ONLINE 0 0 0
cache
ata-INTEL_SSDSC2BA100G3_BTTV332606ZV100FGN-part2 ONLINE 0 0 0

errors: No known data errors
 
Last edited:
Ich dafür eine SSD genommen.
Code:
logs                                                       -      -      -      -      -      -
  ata-SAMSUNG_MZ7KM240HAGR-00005_XXXXXXXXXXXXX-part1   672K  9,94G      0      0      2    113
cache                                                      -      -      -      -      -      -
  ata-SAMSUNG_MZ7KM240HAGR-00005_XXXXXXXXXXXXX-part3  30,9G   167G      0      3  20,7K   386K
Wie du siehst braucht für Logs nicht viel, ist ja nur Durchlaufstelle und wird nur für kleine Dateien genutzt.

Hmm sollte ich mehr cache nehmen, denke aber es wird nur mehr ARC verursachen?
Code:
pool                                                alloc   free   read  write   read  write
--------------------------------------------------  -----  -----  -----  -----  -----  -----
Raid                                                9.96T   933G  3.70K     73   104M  2.08M
  raidz1                                            9.96T   933G  3.70K     72   104M  2.01M
    wwn-0x5000c50090d9b379                              -      -  1.52K     24  34.4M   686K
    wwn-0x5000c50090d90d49                              -      -  1.57K     24  34.2M   686K
    wwn-0x5000c500a83203d3                              -      -    611     24  35.8M   685K
logs                                                    -      -      -      -      -      -
  ata-INTEL_SSDSC2BA100G3_BTTV332606ZV100FGN-part1   804K  9.25G      0      5      1   531K
cache                                                   -      -      -      -      -      -
  ata-INTEL_SSDSC2BA100G3_BTTV332606ZV100FGN-part2  9.05G   270M     45     27   391K  2.96M
--------------------------------------------------  -----  -----  -----  -----  -----  -----
RaidSSD                                             30.2G  44.3G      3    326  12.3K  37.1M
  ata-INTEL_SSDSC2BA100G3_BTTV332606ZV100FGN-part3  30.2G  44.3G      3    326  12.3K  37.1M

EDIT,EDIT:
Ich denke nicht, dass die HDD der Flaschenhals ist. Denn ich hab nun Testweise die Part3 einen Pool erstellt und die Server 2016 VM drauf gezogen. Draufkopieren von 6GB geht fast mit durchgängig mit 130MB/s wegkopieren nur mit 50.
Das ist aber eine intel dc s3710!! Also perfekt für den Einsatz.
Liefert aber genau soviel Lesespeed als die drei Seagate Ironwolf.
Es muss also am Host und dessen Konfiguration liegen.

Hat jemand noch eine Idee?
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!