Kein SSD/NVMe Datastore?
=> bitte um Details zum Datastore (Hardware, Konfiguration)
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 00:00:37 with 0 errors on Sun Dec 10 00:24:38 2023
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
nvme-eui.000000000000000100a075223a4e6419-part3 ONLINE 0 0 0
nvme-eui.8ce38e1000429f3d-part3 ONLINE 0 0 0
errors: No known data errors
pool: tank
state: ONLINE
scan: scrub repaired 0B in 1 days 13:07:06 with 0 errors on Mon Dec 11 13:31:09 2023
remove: Removal of vdev 13 copied 79.3M in 0h0m, completed on Mon Nov 13 09:00:40 2023
17.0K memory used for removed device mappings
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sda ONLINE 0 0 0
sdb ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
sdc ONLINE 0 0 0
sdd ONLINE 0 0 0
mirror-2 ONLINE 0 0 0
sde ONLINE 0 0 0
sdf ONLINE 0 0 0
mirror-3 ONLINE 0 0 0
sdg ONLINE 0 0 0
sdh ONLINE 0 0 0
mirror-4 ONLINE 0 0 0
sdi ONLINE 0 0 0
sdj ONLINE 0 0 0
mirror-5 ONLINE 0 0 0
sdk ONLINE 0 0 0
sdl ONLINE 0 0 0
mirror-6 ONLINE 0 0 0
sdm ONLINE 0 0 0
sdn ONLINE 0 0 0
mirror-7 ONLINE 0 0 0
sdo ONLINE 0 0 0
sdp ONLINE 0 0 0
mirror-8 ONLINE 0 0 0
sdq ONLINE 0 0 0
sdr ONLINE 0 0 0
mirror-9 ONLINE 0 0 0
sds ONLINE 0 0 0
sdt ONLINE 0 0 0
mirror-10 ONLINE 0 0 0
sdu ONLINE 0 0 0
sdv ONLINE 0 0 0
mirror-11 ONLINE 0 0 0
sdw ONLINE 0 0 0
sdx ONLINE 0 0 0
mirror-12 ONLINE 0 0 0
sdy ONLINE 0 0 0
sdz ONLINE 0 0 0
mirror-15 ONLINE 0 0 0
sdaa ONLINE 0 0 0
sdab ONLINE 0 0 0
mirror-16 ONLINE 0 0 0
sdac ONLINE 0 0 0
sdad ONLINE 0 0 0
cache
sdae ONLINE 0 0 0
sdaf ONLINE 0 0 0
30 HDDs im Raid 10 und keine 400MB/s? Das wäre failed by design...
Der Screenshot zeigt ja nicht die Verify speed aller Chunks, sondern ist der Output eines einfachen Benchmarks.Wird nicht beim Verfiy alle Chunks gelesen und auf Fehler geprüft?
Seagates 18TB Exos X18Die Große Frage ist auch, was für HDDs sind das denn?
Ich habe bei einem Kunden, alte 10k Disks im ZFS Pool, das rennt auch ganz gut. Bei den großen HDDs kann man den PBS Performancetechnisch vergessen. Neu gibt nur noch Read Intensive SSDs.
nmon
starten (mein Liebligstool zum Leistung anschauen) und da auf die Disks gucken.Nur CacheDer Kunde hat kein Tape mehr, aber beim Copy der Backups können wir die 10G Leitung sättigen.
Wenn wir mehrere Restores gleichzeitig testen, schaffen wir auch 18GBit Durchsatz auf dem 2x10G LACP. Dann glühen die Disks aber auch. Bei nmon zeigt der dann über 90% Busy.
Eventuell beim Tape schreiben auf dem PBS mal in der Consolenmon
starten (mein Liebligstool zum Leistung anschauen) und da auf die Disks gucken.
Sind die SSDs Cache oder Special Device? Ich habe auch schon gesehen, das beim lesen die günstigen SSDs als Special Device, Bremsklotz gespielt haben.
Wie groß sollten die SSDs für das Special Device denn sein ?Ich hätte etwas mehr erwartet. Im PBS nutze ich SSDs immer als Special Device, da dann die Metadaten auf den SSDs liegen und der Zugriff beim lesen auch deutlich beschleunigt wird.
Eventuell liest du dich zu dem Thema mal etwas schlauer.
https://pve.proxmox.com/wiki/ZFS_on_Linux
Wenn das die Daten beim Sichern aufs LTO sind, liegt's mit Sicherheit nicht an den HDDs.Nur Cache
nmon zeigt mir diese Werte. Read nie über 3. Write hat die 30 auch noch nicht gesehen.
View attachment 60042
Als generelle pi-mal-daumen Regel kann man davon ausgehen, dass Metadaten rund 0,3 % des Storage, da ein PBS Datastore schon etwas mehr Files hat, währen wohl 0,5 % eine sichere Obergrenze.Wie groß sollten die SSDs für das Special Device denn sein ?
special_small_blocks
setzt, für PBS macht das aber wenig Sinn, da die meisten Files zwischen 64 KB und (vor allem) 4 MB haben.Naja, bei hohen latenzen (also niedrigen IOPS) kann so ein Graph genau das Problem gut zeigen.Wenn das die Daten beim Sichern aufs LTO sind, liegt's mit Sicherheit nicht an den HDDs.