Wird die atime nicht für die cutoff-Tine bei der garbage vollection benötigt oder übersehe ich etwas?Noatime ist bei mir auch default, das bringt natürlich beim lesen eine Menge.
Wird die atime nicht für die cutoff-Tine bei der garbage vollection benötigt oder übersehe ich etwas?Noatime ist bei mir auch default, das bringt natürlich beim lesen eine Menge.
relatime oder lazytime.Für PBS mach ich hier compression=off denn der PBS komprimiert ja seine chunks schon. Und doppelt gemoppelt bringt da m.E. nix.Habe mit ZFS keine Erfahrung. Hast da einen Best Practise Guide irgendwo? Muss ich da noch was einstellen?
z.B.
- compression=lz4
- atime=off
- recordsize=1M
- xattr=sa
Haben Mann oder Frau auch eine Begründung dafür? M.E. spielen in der heutigen Welt kleine Dateien keine Rolle mehr.Default ist recordsize=128k, Mann und Frau gehen heute zu recordsize=64k über.
find /path/to/pbs-repo -type f -print0 | xargs -0 ls -l | awk '{ n=int(log($5)/log(2)); if (n<10) { n=10; } size[n]++ } END { for (i in size) printf("%d %d\n", 2^i, size[i]) }' | sort -n | awk 'function human(x) { x[1]/=1024; if (x[1]>=1024) { x[2]++; human(x) } } { a[1]=$1; a[2]=0; human(a); printf("%3d%s: %6d\n", a[1],substr("kMGTEPYZ",a[2]+1,1),$2) }'

Das ist IMHO falsch.Für PBS mach ich hier compression=off denn der PBS komprimiert ja seine chunks schon. Und doppelt gemoppelt bringt da m.E. nix.
Tatsäch so nicht korrekt.Das ist IMHO falsch.
Angenommen dein recordsize ist 1M. Ein chunk kann von 4MB auf 1.1M komprimiert werden von PBS.
Nun müssen zwei 1M records angelegt werden, sprich 2M storage mit compression off.
Mit LZO wären es nur 1.1M gewesen.
Gibt eigentlich fast nie einen Grund, LZO bei ZFS nicht aktiv zu haben.
EinverstandenZFS nutzt immer die kleinste Recordsize die benötigt wird BIS HOCH zum eingestellten maximum
Das glaube ich hingegen nicht. AFAIK ist die record size zwar generell wie du richtig erwähnt hast eine max Variable, ABER die record size kann für ein einzelnes File nicht variabel sein.In dem fall wären es also 1x1MB + 1x128k oder 256k je nach dem obs noch in den 128k reinpasst.
ZFS kann m.W. kein LZO und der Default ist LZ4. Vermutlich ist das aber egal.Gibt eigentlich fast nie einen Grund, LZO bei ZFS nicht aktiv zu haben.

Ich meine, ich hätte irgendwo gelesen, der letzte Record wäre dann 0-padded.Ein File als 1MB + 16k record zu speichern ist also AFAIK nicht möglich.
Es müssen zwei 1MB records sein.
Es sind aber in jedem Fall zwei Records, die ZFS verarbeitet. Und die werden auch noch bei RaidZ über mehrere Disks verteilt.Nun müssen zwei 1M records angelegt werden, sprich 2M storage mit compression off.
Mit LZO wären es nur 1.1M gewesen.
Sorry, natürlich lz4.ZFS kann m.W. kein LZO und der Default ist LZ4. Vermutlich ist das aber egal.
Denke ich auch. Das führt dann zu einem "richtigen" 1M record + 1M record der nur zu 10% aus Daten und zu 90% aus Nullen besteht.Ich meine, ich hätte irgendwo gelesen, der letzte Record wäre dann 0-padded.
Übertragen ist dann glaube ich nochmal was anderesAber auch hier ist m.E. gar nicht die Frage, ob nun 1.1 M oder 2x 1M übertragen werden...
Das könnte sein. Flaschenhals könnte halt sehr vieles hier sein.Und der Flaschenhals, scheint es mir, ist eher die Anzahl der I/Os und nicht unbedingt die Länge.
We use essential cookies to make this site work, and optional cookies to enhance your experience.