Hardware RAID funktioniert aber anders. Bei HDDs hätte das noch Performance Impact gehabt, aber so sind die Daten sauber logisch getrennt.HW-raid Konfig "In zfs Logik" erklärt - 2 raidsets auf den gleichen Platten !!! Mannomann, wer hat hier alles ein Brett vorm Kopf ... !!
Ich nutze lieber XFS, gerade bei größeren Mengen.Ich habe den Datastore auf dem PBS mit ext4 formatiert. Was nutzt du? Oder wäre xfs besser gewesen?
Sollte man bei ext4 noch noatime setzen oder beeinträchtigt das die Funktion von PBS?
Ich nutze NVMe in der Regel ohne RAID und auf den PBS mit NVMe macht beim Benchmark die CPU dicht bei Werten zwischen 20-100 GB/s je nach Modell.Also wir haben einen PBS mit 8x NVMe
Zwar trotzdem 24 Slot aber nur die ersten 8 Slots belegt. Hier dürfte dann ja kein PCI Switch genutzt werden. Der ist genauso langsam.
Was habt ihr für ein Setup bei dem es richtig schnell läuft und wie schnell ist das bei euch in Gbit/s?
Vielleicht komme ich so der Lösung näher.
Was machst dann? einen ZFS Pool mit den NVMe? Raid-z2? Läuft das stabil?Ich nutze NVMe in der Regel ohne RAID und auf den PBS mit NVMe macht beim Benchmark die CPU dicht bei Werten zwischen 20-100 GB/s je nach Modell.
Aber ich nutze auch fast nur noch AMD Server.
Solche Benchmarks sind eh synthetisch und in der Praxis langweilen sich die NVMe bei maximal 2% busy.
Natürlich mit ZFS und ZFS RAID ging schon vor Ewigkeiten stabil mit Solaris.Was machst dann? einen ZFS Pool mit den NVMe? Raid-z2? Läuft das stabil?
Software raid war früher eher mist unter linux
Setzt du außer noatime noch was bei dem Mountpoint?
Wenn du keine Erfahrung hast mit ZFS, dann nutze die Proxmox defaults.Habe mit ZFS keine Erfahrung. Hast da einen Best Practise Guide irgendwo? Muss ich da noch was einstellen?
z.B.
- compression=lz4
- atime=off
- recordsize=1M
- xattr=sa
Ich würde ein hardware raid-1 machen fürs OS. Und dann 8x NMVe als raid-z2
Wenn ich mirror mache reicht mir der speicherplatz nicht, weil ich dann effektiv nur 4 NVMe kapazität hätte.
Irgendwelche stolpersteine über die ich fallen kann?
Danke dir
Default ist recordsize=128k, Mann und Frau gehen heute zu recordsize=64k über.Habe mit ZFS keine Erfahrung. Hast da einen Best Practise Guide irgendwo? Muss ich da noch was einstellen?
z.B.
- compression=lz4
- atime=off
- recordsize=1M
- xattr=sa
Ich würde ein hardware raid-1 machen fürs OS. Und dann 8x NMVe als raid-z2
Wenn ich mirror mache reicht mir der speicherplatz nicht, weil ich dann effektiv nur 4 NVMe kapazität hätte.
Irgendwelche stolpersteine über die ich fallen kann?
Danke dir
zpool version.zfs create rpool/quota
# bei reinen SSD setzte ich das Quota auf ca. 15 % des Maximus.
#
zpool list rpool
# liefert z.B. SIZE= 928G
# Rechnung 928G * 0,15 ~ 140G (Quota)
zfs set refreservation=140G pool/quota
# Kontrolle:
zfs get refreservation rpool/quota
zfs set refreservation=none pool/quota
zfs set refreservation=<size> pool/quota
Ich kann dir leider nicht folgen.Hallo @Falk R. das hatte ich auch mal falsch interpretiert.
Das zfs set quota= pool/dataset gilt nur auf dem einen zfs Dataset.
Weitere zfs datasets sind davon nicht betroffen und der zfs pool kann trotz allem volllaufen.
# https://openzfs.github.io/openzfs-docs/man/master/8/zfs-set.8.html
Mit der geänderten Variante bin ich für alle zfs datasets und volumes sicher.
Genau, meine Erklärung ist oben mit Link zum Wiki.Ich könnte wenn voll auch einfach Backups vom PBS löschen oder geht das nicht mehr wenn ZFS voll ist?
Noatime sollte da schon aktiv sein und ich setze die Quota einfach auf dem Pool:Also ich lege über die PBS Oberfläche den ZFS Pool an und reserviere dann ein paar GB wie von news geschrieben.
Dann setze ich noch noatime bzw. atime=off
was sollte man noch setzen? Was ist sinnvoll?
We use essential cookies to make this site work, and optional cookies to enhance your experience.