ZFS Raid 10 mit 6 Samsung PM893 1,92TB Sata Schreckliche Schreibraten

fjochum

New Member
Jan 21, 2023
14
0
1
Ich habe seit gestern einen Raid 10 mit 6 1,92TB Sata SSD laufen, die Lesegeschwindigkeit ist auch bei den Erwarteten Werten, nicht jedoch die Schreibwerte.

Folgende Test habe ich durchgeführt:

fio --ioengine=psync --direct=1 --sync=1 --rw=write --bs=4K --numjobs=1 --iodepth=1 --runtime=60 --time_based --name write_4k --filename=/VM-Storage/4k-writes --size=1g
write: IOPS=4542, BW=17.7MiB/s (18.6MB/s)(1065MiB/60001msec) (zfs sync enabled)
write: IOPS=155k, BW=606MiB/s (636MB/s)(35.5GiB/60001msec) (zfs sync disabled)

fio --ioengine=psync --direct=1 --sync=1 --rw=write --bs=4M --numjobs=1 --iodepth=1 --runtime=60 --time_based --name write_4m --filename=/VM-Storage/4m-writes --size=1g
write: IOPS=109, BW=439MiB/s (461MB/s)(25.7GiB/60002msec) (zfs sync enabled)
write: IOPS=639, BW=2559MiB/s (2683MB/s)(150GiB/60001msec) (zfs sync disabled)


fio --ioengine=psync --direct=1 --sync=1 --rw=read --bs=4K --numjobs=1 --iodepth=1 --runtime=60 --time_based --name read_4k --filename=/VM-Storage/4k-reads --size=1g
read: IOPS=225k, BW=878MiB/s (920MB/s)(51.4GiB/60001msec) (zfs sync enabled)
read: IOPS=211k, BW=825MiB/s (865MB/s)(48.3GiB/60001msec) (zfs sync disabled)

fio --ioengine=psync --direct=1 --sync=1 --rw=read --bs=4M --numjobs=1 --iodepth=1 --runtime=60 --time_based --name read_4m --filename=/VM-Storage/4m-reads --size=1g
read: IOPS=854, BW=3417MiB/s (3583MB/s)(200GiB/60001msec) (zfs sync enabled)
read: IOPS=563, BW=2255MiB/s (2365MB/s)(132GiB/60002msec) (zfs sync disabled)
 
zwei Fragen hierzu:

- hast du schonmal eine SSD Single getestet - also außerhalb des Raid - was du da für Schreibraten bekommst?

- da SSDs massiv von mehreren Queues und Threads profitieren und du nur Q1 T1 testest fehlt dir natürlich der Vorteil. Ebenso wird es durch das Raid eher Langsamer, da der Controller ja die Mini-Wirtes auf noch auf die Platten verteilen muss. Das macht es nicht direkt langsamer, kostet aber Latzenz. - Also doch irgendwie langsamer :)

gefühlt würde ich sagen: Werte sind im Normalbereich

PS: du siehst ja auch, dass wenn aus den MiniWrites (zfs sync enabled) normale Serial-Writes werden (zfs sync disabled) dann passt der speed.

Grüße
 
HI,

Zu eurer Kenntnis:
gerade stelle ich einen Proxmox ZFS Server bei Thomas Krenn zusammen (Kompatibilitätsauswahl auf Proxmox latest) .
Hier sind explizit die Samsung PM893 (alle Größen) als nicht ZFS kompatibel ausgegraut.
Ich habe noch nicht in Erfahrung bringen können warum genau (512Kn Sektoren vielleicht?), frag aber bei TK noch nach ....

sonnige Grüße,
mp
 
  • Like
Reactions: Dunuin
Hi, ich würde bei einem neuen System die PM893 nicht nutzen, außer für nen PBS.
Die NVMe's kosten derzeit fast gleich wie die SATA SSDs, du bekommst aber ein vielfaches an Leistung.
Wenn du dir einen neuen Server zusammenstellst, nimm lieber NVMe und dann ist das ZFS auch rattenschnell.
Die 3,84TB PM9A3 bekomme ich beim Händler meiner Server derzeit für 257€. Die 3,84TB PM893 für 245€, da lohnt sich der Aufpreis schon.
 
  • Like
Reactions: proxifoxi
HI Falk R.
ja, gar keine Frage (das sind Nettopreise oder?). die von mir oben erwähnten amd epyc Supermicro Systeme haben alle 2x NVMe M.2 und die werden genau mit deinem vorschlag, PM9A3 (günstige 1 DWPD Teile ...) bestückt zusätzlich (Preis Leistung) 4x 4TB SAS HDDs..
Warum die PM893 von TK nicht für ZFS / Proxmox empfohlen sind möchte ich trotzdem gerne wissen ;-)

EDIT:
ich sehe schon den Fortgang der OT Kommunikation. Um Öl ins Feuer zu kippen ;-)
wenn du / wir das mit PCI Express SSDs richtig machen wollen => U.2 verkabelt im Wechselschacht. Dann sieht der Preisvergleich wieder ganz anders aus ;-))
Ich selbst kann mit einem Raid-1 NVMe Verbund, M.2 onboard sehr gut schlafen ...
Grüße,
 
Last edited:
Hallo,
heute, keinen Tag nach meiner Anfrage, habe ich bereits eine nette hilfreiche Antwort von TK bekommen:
grob zitiert:
Speziell bei den Samsung PM893 SSDs gab es unter ZFS (Proxmox) vermehrt Ausfälle, I/O Fehler, dessen genaue Ursachen auch in Verbindung mit Samsung noch untersucht werden. Natürlich mit dem Ziel sie gelöst zu bekommen

Da ich weder zur Zeit direkt davon betroffen bin, noch selbst weitere konkrete Infos dazu habe, erübrigen sich dazu Fragen an mich ;-)

Grüße,
m
 
Last edited:
  • Like
Reactions: Dunuin
Hi Max,

von Wem hast du denn die Info? Ich würde den Kollegen dann direkt mal kontaktieren, da ich bei Kunden PBS mit ZFS und PM893 habe.
HI Falk,
diese Woche haben ich einen feinen Server bei Thomas Krenn gekauft, ging ratz-faz über die Bühne. Beim Konfigurieren vielen mir die ausgegrauten PM983 auf, die ich selbst unterschiedlich im Einsatz habe ... Dann habe ich einmal hier im Forum recherchiert und bin hier gelandet; zusätzlich habe ich ein Ticket bei TK eröffnet, mit der Antwort aus der ich oben (ungefragt) frei zitiere....
Einen Namen wirst du hier öffentlich nicht von mir bekommen (auch nicht per PM)
Grüße,
max
 
HI Falk,
diese Woche haben ich einen feinen Server bei Thomas Krenn gekauft, ging ratz-faz über die Bühne. Beim Konfigurieren vielen mir die ausgegrauten PM983 auf, die ich selbst unterschiedlich im Einsatz habe ... Dann habe ich einmal hier im Forum recherchiert und bin hier gelandet; zusätzlich habe ich ein Ticket bei TK eröffnet, mit der Antwort aus der ich oben (ungefragt) frei zitiere....
Einen Namen wirst du hier öffentlich nicht von mir bekommen (auch nicht per PM)
Grüße,
max
OK, dann mach ich auch mal ein Ticket auf.
 
Wir haben aktuell Probleme mit den PM893 und PM897 in Kombination mit Supermicro Systemen (H12 aber auch X12) - es kommt zu sehr vielen ZFS Fehlern. Wir werden demnächst auch die PM897 als inkompatibel zu ZFS setzen.

Edit: Hier ein Beispielfehler:


Code:
The number of I/O errors associated with a ZFS device exceeded
acceptable levels. ZFS has marked the device as faulted.

impact: Fault tolerance of the pool may be compromised.
   eid: 271
 class: statechange
 state: FAULTED
  host: tkn3
  time: 2023-09-12 19:25:12+0200
 vpath: /dev/disk/by-id/ata-SAMSUNG_MZ7L3480HBLT-00A07_S6ELNE0T302384-part3
 vguid: 0xE2D500F3703FA6AD
  pool: rpool (0x2838289FF092C7CB)
 
Last edited:
Hi Jonas,

Danke dafür -
und der erscheint bei "zpool status"?
Der taucht also auch im Monitoring auf, (sofern vorhanden) ...?

Ja genau, hier der Output:


Code:
root@tkn1:~# zpool status -v rpool

pool: rpool
state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
repaired.

scan: scrub repaired 0B in 00:00:45 with 0 errors on Sun Sep 10 00:24:46 2023
config:

NAME STATE READ WRITE CKSUM
rpool DEGRADED 0 0 0
mirror-0 DEGRADED 0 82 0
ata-SAMSUNG_MZ7L3480HBLT-00A07_S6ELNE0T302387-part3 FAULTED 0 49 0 too many errors
ata-SAMSUNG_MZ7L3480HBLT-00A07_S6ELNE0T302390-part3 DEGRADED 0 91 0 too many errors

Hier die Smartwerte.

Code:
root@tkn1:~# smartctl -a /dev/sda
smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.2.16-3-pve] (local build)
Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Device Model:     SAMSUNG MZ7L3480HBLT-00A07
Serial Number:    S6ELNE0T302387
LU WWN Device Id: 5 002538 f02325925
Firmware Version: JXTE004Q
User Capacity:    480,103,981,056 bytes [480 GB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    Solid State Device
Form Factor:      2.5 inches
TRIM Command:     Available, deterministic, zeroed
Device is:        Not in smartctl database 7.3/5319
ATA Version is:   ACS-4 T13/BSR INCITS 529 revision 5
SATA Version is:  SATA 3.2, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Mon Sep 18 13:13:04 2023 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                                        was never started.
                                        Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (    0) seconds.
Offline data collection
capabilities:                    (0x53) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        No Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        (  35) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 1
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   099   099   000    Old_age   Always       -       632
 12 Power_Cycle_Count       0x0032   099   099   000    Old_age   Always       -       15
177 Wear_Leveling_Count     0x0013   099   099   005    Pre-fail  Always       -       3
179 Used_Rsvd_Blk_Cnt_Tot   0x0013   100   100   010    Pre-fail  Always       -       0
180 Unused_Rsvd_Blk_Cnt_Tot 0x0013   100   100   010    Pre-fail  Always       -       877
181 Program_Fail_Cnt_Total  0x0032   100   100   010    Old_age   Always       -       0
182 Erase_Fail_Count_Total  0x0032   100   100   010    Old_age   Always       -       0
183 Runtime_Bad_Block       0x0013   100   100   010    Pre-fail  Always       -       0
184 End-to-End_Error        0x0033   100   100   097    Pre-fail  Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0032   068   063   000    Old_age   Always       -       32
194 Temperature_Celsius     0x0022   068   060   000    Old_age   Always       -       32 (Min/Max 27/40)
195 Hardware_ECC_Recovered  0x001a   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   100   100   000    Old_age   Always       -       0
199 UDMA_CRC_Error_Count    0x003e   100   100   000    Old_age   Always       -       0
202 Unknown_SSD_Attribute   0x0033   100   100   010    Pre-fail  Always       -       0
235 Unknown_Attribute       0x0012   099   099   000    Old_age   Always       -       8
241 Total_LBAs_Written      0x0032   099   099   000    Old_age   Always       -       2274022611
242 Total_LBAs_Read         0x0032   099   099   000    Old_age   Always       -       43415801
243 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
244 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
245 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       65535
246 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       65535
247 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       65535
251 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       3358322304
 
Last edited:
hmm...interessanterweise sind es auschließlich WriteErrors.

weißt du wie heavy die IO Last war?

klingt irgendwie nach NCQ Problem, dafür müsste man aber mehr zu den Umständen wissen
 
Wir haben aktuell Probleme mit den PM893 und PM897 in Kombination mit Supermicro Systemen (H12 aber auch X12) - es kommt zu sehr vielen ZFS Fehlern. Wir werden demnächst auch die PM897 als inkompatibel zu ZFS setzen.

Edit: Hier ein Beispielfehler:


Code:
The number of I/O errors associated with a ZFS device exceeded
acceptable levels. ZFS has marked the device as faulted.

impact: Fault tolerance of the pool may be compromised.
   eid: 271
 class: statechange
 state: FAULTED
  host: tkn3
  time: 2023-09-12 19:25:12+0200
 vpath: /dev/disk/by-id/ata-SAMSUNG_MZ7L3480HBLT-00A07_S6ELNE0T302384-part3
 vguid: 0xE2D500F3703FA6AD
  pool: rpool (0x2838289FF092C7CB)

hmm...interessanterweise sind es auschließlich WriteErrors.

weißt du wie heavy die IO Last war?

klingt irgendwie nach NCQ Problem, dafür müsste man aber mehr zu den Umständen wissen

Beim Lesen des Posts von @abader musste ich an folgende(s) Ticket(s) denken:

@jsterr:
Seht ihr ebenfalls: Unaligned write command Fehler?
Könntet ihr mal mit deaktiviertem NCQ testen?
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!