ZFS Unterschiede Speichergröße

ProAdmin

New Member
Feb 3, 2025
3
0
1
Hallo beisammen,

wir haben aus drei 1,92TB Platten ein ZFS-Pool erstellt. Pool Liste zeigt an, dass no 3,21 T frei sind:zpool_list.png

Bei Usage stehen allerdings nur 1,86T instgesamt:
zpool_usage.png

Das ist der Pool Status:
zpool_status.png

Warum gibt es hier ein Unterschied?
Kann man das korrigieren, dass man den kompletten speicher verwenden kann?

Vielen Dank im Voraus.

Gruß
ProAdmin
 
  • Like
Reactions: Johannes S
Ja, die Seite habe ich auch schon gefunden. Leider finde ich da keine Lösung meines Problems.

Trotzdem vielen Dank.
 
zpool list zeigt die Bruttokapazität (3x1,92)
zfs list (und die Übersichtsgrafik) zeigen die Nettokapazität. (ich habe draid ebenfalls noch nie benutzt und keine Ahnung)

Kann man das korrigieren, dass man den kompletten speicher verwenden kann?
Welche Kapazität hast du erwartet?
 
  • Like
Reactions: Johannes S
draid 1d und 1s. Du hast 1/3 Parity und 1/3 Spare auf jeden der Childs.
Es ist demnach ein zraid1 + spare, nur schneller beim Resilven, da ja alle immer alles inne haben.
Macht bei 12 Platten plus irgendwann Sinn, wenn man Angst um die Zeit hat (bis zur übernächsten).

Oder meinst du schlicht die Anzeige Gigabyte vs Gibibyte?
Ein Linux zeigt dir auch beim ZFS Gibibyte an :)
 
Guten Morgen beisammen.

Tatsächlich habe ich 2/3 erwartet. Aus diesem Grund wäre tatsächlich zraid1 ohne Spare für uns in dieser Konstellation besser.
Wenn ich das richtig verstanden habe, sollte ich auch die Blocksize auf 16k erhöhen.

Habt Ihr noch eine Empfehlung bzw. stimmt Ihr mir zu?

Werde wohl die Storage nochmal leer machen und neu erstellen.

Danke für eure Antworten.

Gruß
ProAdmin
 
In der Konstellation reicht ein zraid1 auch völlig aus.
Denk an die ZFS ARC min max Speicherkonfiguration, sonst sind es 50% des RAMs max.

Das einfachste ist tatsächlich Kompression an / lz4 und Standard. Die Kompression lässt es dann schon sauber schreiben.
Solange du keine speziellen Datenbanken mit 16k hast...
Für solche speziellen Anwendungen ist zfs create mit einem angepassten Wert empfehlenswert.
Hab aber S.M.A.R.T. Werte auf Alarm. Consumer SSDs können zwar ewig mit ZFS laufen, aber das ist nicht garantiert. Ist ja sogar eine schöne PM. Aber trotzdem :)
 
Last edited:
  • Like
Reactions: Johannes S and pkey
Sorry, keine Ahnung - ich habe von draid bisher die Finger gelassen.

Ich antworte mal auf mich selber - ich habe eine kleine Ergänzung, die noch nicht erwähnt wurde. Nur "for-the-record", für zukünftige Leser: dRaid ist nützlich, wenn man viele Laufwerke hat. Beispielsweise findet man an anderer Stelle zu diesem Thema:

"Intended for storage arrays with numerous attached disks (>100)..."

Das entstammt zwar einem anderen Kontext, aber "ZFS ist ZFS" ;-)

(( Quelle: www. truenas.com/docs/references/draidprimer/ ))
 
Nur "for-the-record", für zukünftige Leser
Da hätte ich auch noch was. compression=on ist nicht immer automatisch LZ4. FreeBSD z.B. ist schon vor längerer Zeit bei 'on' von lz4 zu zstd-3 gewechselt.
Ich persönlich damit auch überall, performancemäßig ist das auf ca. 10 Jahre alten Kisten problemlos, nur von zstd-19 würde ich da abraten. Das ist, als hätte man die Handbremse zugeknallt und noch einen Anker geworfen. :D
 
  • Like
Reactions: Johannes S
Die neue Begrenzung war mir wirklich neu, oder ich habe es wieder vergessen...

Draid kann man auch mit weniger als 100 Platten schon gut fahren, aber dazu muss man wissen was man will.
Proxmox sollte hier aber definitiv eine Warnung, oder weitere Infos geben. Ein Anfänger wird da mit hoher Wahrscheinlichkeit Fehler machen.

Zstd 3-4 ist doch auf modernen CPUs auch relativ schmerzfrei, solange man keine größeren NVMe Setups fährt.
Bin aber nach wie vor eher bei lz4. Kaum CPU Auslastung, aber gute Kompression und Latenz.
 
Guten Morgen beisammen.

Tatsächlich habe ich 2/3 erwartet. Aus diesem Grund wäre tatsächlich zraid1 ohne Spare für uns in dieser Konstellation besser.
Wenn ich das richtig verstanden habe, sollte ich auch die Blocksize auf 16k erhöhen.

Habt Ihr noch eine Empfehlung bzw. stimmt Ihr mir zu?

Werde wohl die Storage nochmal leer machen und neu erstellen.

Danke für eure Antworten.

Gruß
ProAdmin
Hi,
Du hast 3 Devices, 1 Datadrive und 1 Spare definiert. Somit hast du 1 Disk mit 1x Parity (quasi wie Raid1) und eine Spare Disk.
Bei 3 Disks hätte ich das draid ohne Spare eingerichtet und 2 Datadisks definiert, dann wäre es wie Raid5.
 
  • Like
Reactions: Johannes S
DRAID macht in dieser Konstellation mal so überhaupt gar kein Sinn ;)
Du hast die Kapazität von einer Platte. Sozusagen ein mirror mit einer hot spare, aber dafür noch alle Nachteile von dRAID.

Tatsächlich habe ich 2/3 erwartet. Aus diesem Grund wäre tatsächlich zraid1 ohne Spare für uns in dieser Konstellation besser.
HDD und RAIDZ ist halt Käse mit mieser Performance.
Wenns denn unbedingt die HDDs sein müssen, würde ich die drei in ein 3 way mirror setzten. Hast dann auch nur 1.8TB, aber immerhin bisschen performance.

SSDs sind aber günstig und deutlich besser.
Blockstorage hat enorme Nachteile. Falls möglich würde ich darum Dateien aus den VMs auslagern (dass kann dann auch RAIDZ und HDD sein) und die VMs selbst auf SSD mirrors laufen lassen.
Die VMs selbst auf HDD tue ich mir seit ca. 2015 nicht mehr an.


Wenn ich das richtig verstanden habe, sollte ich auch die Blocksize auf 16k erhöhen.
Da die Blocksize per default bereits auf 16k ist, würde ich mal sagen nein :)
 
  • Like
Reactions: Johannes S
DRAID hat bei HDDs schon Vorteile, du hast bei großen Raids mit vielen HDDs viel schnellere Rebuild Performance. Bei 3 HDDs kannst du lieber RaidZ1 machen, was auch nicht schnell sein wird.
;)
 
  • Like
Reactions: Johannes S