Ich meinte damit könnte man BTRFS mit seinen Möglichkeiten genauso einsetzen wie ZFS?
Ceph ist für ein paar wenige Platten ungeeignet. Ceph will meherere Storage Pools. Zu viel für den Haushaltsgebrauch.Deshalb nutze ich Produktiv fast nur Ceph, da ist man ebenfalls extrem flexibel.
Naja 3 SSDs pro Node sollten es schon sein. Für zuhause natürlich etwas viel, aber da reicht in der Regel auch ein Raid1Ceph ist für ein paar wenige Platten ungeeignet. Ceph will meherere Storage Pools. Zu viel für den Haushaltsgebrauch.
Wie gesagt läuft seit Jahren ohne Probleme (hatte bisher aber auch kein power failure). Ausserdem halte ich Metadata in RAID1.btrfs - raid5/6 : Ja. Da würde ich auch nochmal genau lesen, bevor ich das einsetzen würde... (Da ich das bisher noch nicht getan habe, fällt das für mich erst mal weg.)
https://btrfs.readthedocs.io/en/latest/btrfs-man5.html#raid56-status-and-recommended-practices
# btrfs filesystem df /mountpoint
...
WARNING: Multiple block group profiles detected, see 'man btrfs(5)'
WARNING: Data: single, raid1
btrfs balance start -mconvert=raid1 -dconvert=raid1 /mountpoint
Bei ZFS kannst du doch auch 3 oder 4 Disks in einen Mirror packen mit 3 oder 4 Kopien, wenn da mehr Redundanz gewünscht ist. Das ist doch gängige Praxis, dass man da Striped 3-Disk-Mirrors benutzt, wenn man die Redundanz eines Raidz2/Raid6 will aber die Performance eines normalen Striped Mirror/Raid10.RAID-Level raid1c3, raid1c4
Diese Raidlevel des mirroring sind das Alleinstellungsmerkmal von btrfs. raid1 speichert Daten 2-fach auf 2 verschiedenen Datenträgern. raid1c3 3-fach auf 3 verschiedenen Datenträgern und raid1c4 4-fach auf 4 verschiedenen Datenträgern. Wer also erhöhte Redundanzwünsche hat, der hat in btrfs das gefunden, was er braucht.
Das macht ZFS doch aber auch. Ich kann doch 2x 4TB Disk Mirror + 2x 8TB Disk Mirror stripen. Der resultierende Striped Mirror hat dann 12TB und wenn ich was Schreibe dann versucht ZFS die Daten so zwischen den Mirrors aufzuteilen, dass da beide Mirror ungefähr gleich voll sind. Dann gehen halt 2/3 der Writes auf den 8TB Mirror und 1/3 der Writes auf den 4TB Mirror. Nicht so ideal für die Performance, wenn ein Mirror mehr zu tun hat als der andere, weshalb man gleiche große Disks bevorzugt (wie 2x 6TB + 2x 6TB), aber sonst unproblematisch.Ein Vorteil von btrfs ist das Verwenden von unterschiedlichen Datenträgergrößen. Das Verständnis von raid1 bei btrfs ist hier nicht: Spiegelung zweier Datenträger, sondern Speicherung von 2 Kopien eines Blockes (Chunk) auf 2 verschiedenen Datenträgern. Das wirkt sich vor allem bei größeren Datenträgerzahlen positiv aus. Hat man nur 2 Festplatten z. B. 4 TB und 8 TB, dann kann man hier mit "raid1" natürlich auch nur 4 TB insgesamt speichern.
Bei ZFS kannst du doch auch 3 oder 4 Disks in einen Mirror packen mit 3 oder 4 Kopien, wenn da mehr Redundanz gewünscht ist. Das ist doch gängige Praxis, dass man da Striped 3-Disk-Mirrors benutzt, wenn man die Redundanz eines Raidz2/Raid6 will aber die Performance eines normalen Striped Mirror/Raid10.
Das macht ZFS doch aber auch. Ich kann doch 2x 4TB Disk Mirror + 2x 8TB Disk Mirror stripen. Der resultierende Striped Mirror hat dann 12TB und wenn ich was Schreibe dann versucht ZFS die Daten so zwischen den Mirrors aufzuteilen, dass da beide Mirror ungefähr gleich voll sind. Dann gehen halt 2/3 der Writes auf den 8TB Mirror und 1/3 der Writes auf den 4TB Mirror. Nicht so ideal für die Performance, wenn ein Mirror mehr zu tun hat als der andere, weshalb man gleiche große Disks bevorzugt (wie 2x 6TB + 2x 6TB), aber sonst unproblematisch.
Ich sehe das anders. Mir scheint BTRFS ein solides Linux-Projekt zu sein. Da gibt es kontinuierlich Änderungen. (Siehe: Changes auf https://btrfs.readthedocs.io/). Da ist zwar insgesamt recht wenig Medienaufmerksamkeit, aber dennoch findet die Entwicklung statt. Ich sehe da keine Stagnation. Ich merke, wie Dinge im Laufe der Zeit besser werden. (Z. B. Dokumentation).Bei BTRFS wird im Moment nicht so viel weiterentwickelt.
... wird vermutlich bcachefs die Lücke zwischen ZFS und EXT/XFS füllen.
We use essential cookies to make this site work, and optional cookies to enhance your experience.