ZFS vs HW Raid

Haxley

Well-Known Member
Jan 7, 2018
31
0
46
54
Hallo Allen,
ich schwanke immer noch zwischen HW Raid (1er bisher) und ZFS (Mirror).
Ist ZFS pflegeleichter? Was ist wenn eine HDD defekt ist? Einfach defekte Platte raus und neue rein... fertig? Oder muss sich da noch händisch tätig werden um den Vorgang des "Wiedereinbindens" anzustoßen?
Habe HP DL380 mit aktuell HW Raid überleger aber für die Nächste Generation ein ZFS zu machen.
Wie weit erkennt und managt sich da ein ZFS selbst?

Noch eine Frage: wenn ich separate Datasets im ZFS für jede VM oder LXC verwende, davon Snapshots mache und "weg-backupe", wozu benötige ich da noch PBS?

Danke Gruß Haxley
 
Last edited:
Ist ZFS pflegeleichter? Was ist wenn eine HDD defekt ist? Einfach defekte Platte raus und neue rein... fertig? Oder muss sich da noch händisch tätig werden um den Vorgang des "Wiedereinbindens" anzustoßen?
Hängt davon ab, ob du von der Disk bootest oder nicht. Wenn du von der bootest ist nur Partition 3 ein Mirror, Partition 1 und 2 sind ungespiegelte Partitionen und es muss vorher die Partitionstabelle geklont und der Bootloader gesynct werden. Siehe Abschnitt "Changing a failed bootable device": https://pve.proxmox.com/wiki/ZFS_on_Linux#_zfs_administration

Außerdem nicht vergessen, dass man ZFS auf einem HBA und nicht auf einem Raid-Controller betreiben sollte: https://openzfs.github.io/openzfs-d...uning/Hardware.html#hardware-raid-controllers

Noch eine Frage: wenn ich separate Datasets im ZFS für jede VM oder LXC verwende, davon Snapshots mache und "weg-backupe", wozu benötige ich da noch PBS?
Dann hast du nur Backups der virtuellen Disks, aber nicht der VMs/LXCs. Da müsstest du dann schon auch noch die ganzen Konfig-Dateien von der Systemdisk mitsichern. Und dir hilft das auch nicht gegen Ransomware, du hast keine Deduplikation die massig Platz spart, Snapshots verhindern ein Freimachen von gelöschten/veränderten Daten, dass da ein alter Snapshot schnell mal größer werden kann als die Daten an sich. Anfälliger für Dateiverlust durch Nutzerfehler etc.
 
Last edited:
Hängt davon ab, ob du von der Disk bootest oder nicht. Wenn du von der bootest ist nur Partition 3 ein Mirror, Partition 1 und 2 sind ungespiegelte Partitionen und es muss vorher die Partitionstabelle geklont und der Bootloader gesynct werden. Siehe Abschnitt "Changing a failed bootable device": https://pve.proxmox.com/wiki/ZFS_on_Linux#_zfs_administration
So weit ich weiß kann Proxmox auch von ZFS booten, aber ist eh egal da die VMs und LXCs auf einem seperaten Pool liegen würden. Je ein Dataset.
Außerdem nicht vergessen, dass man ZFS auf einem HBA und nicht auf einem Raid-Controller betreiben sollte: https://openzfs.github.io/openzfs-docs/Performance and Tuning/Hardware.html#hardware-raid-controllers
Naja das stimmt glaube nicht so ganz. Wenn der Raid Controller nur "durchreicht" also quasi als HBA Schnittstelle fungiert und selbst nicht "verteilt" sollte das auch OK sein.

Dann hast du nur Backups der virtuellen Disks, aber nicht der VMs/LXCs. Da müsstest du dann schon auch noch die ganzen Konfig-Dateien von der Systemdisk mitsichern. Und dir hilft das auch nicht gegen Ransomware, du hast keine Deduplikation die massig Platz spart, Snapshots verhindern ein Freimachen von gelöschten/veränderten Daten, dass da ein alter Snapshot schnell mal größer werden kann als die Daten an sich. Anfälliger für Dateiverlust durch Nutzerfehler etc.
Plan war für jedes LXC ein eigenes Dataset zu machen. Soweit ich weis liegen die Configs des LXC dann mit drin, da die auch im Container hinterlegt sind. Oder?
 
Naja das stimmt glaube nicht so ganz. Wenn der Raid Controller nur "durchreicht" also quasi als HBA Schnittstelle fungiert und selbst nicht "verteilt" sollte das auch OK sein.
Hängt vom Raid-Controller ab. Die meisten lassen dich nicht wirklich komplett die Disks im IT-mode durchreichen und du hast trotzdem noch irgendwelche Abstraktionsebenen zwischen den Disks und dem ZFS, weil sie die Disks nur als Single Disk Raid0 oder JBOD presentieren, wenn du das Raid deaktivierst.

Plan war für jedes LXC ein eigenes Dataset zu machen. Soweit ich weis liegen die Configs des LXC dann mit drin, da die auch im Container hinterlegt sind. Oder?
Also erstmal nutzen LXCs automatisch Datasets wenn sie auf ZFS liegen. Da musst du keine extra Datasets anlegen. Und nein, da sind dann nicht die Konfigs mit bei. LXC Konfigs liegen in der SQLite Datenbank /var/lib/pve-cluster/config.db und werden über fuse als Dateien in /etc/pve/lxc gemountet sowie Firewall-Regeln in /etc/pve/firewall etc.
 
Last edited:
ich schwanke immer noch zwischen HW Raid (1er bisher) und ZFS (Mirror).
Ich schrieb vor ein paar Tagen an einer vollkommen anderer Stelle:

"
ZFS gives you integrity, smart replication, raid capabilities / redundancy, invisible compression, cheap snapshots,... , ...

LVM was great - /before/ there was OpenZFS.
"
Derselbe Nachsatz gilt für MDRAID.


Wenn der Server nicht gerade ein Raspberry Pi ist, dann tendiere ich dazu, obige Features haben zu wollen. (Nichts gegen Raspis, ich habe mehrere davon im Einsatz.)

Natürlich bewertet jeder "Datenintegrität" usw. anders; manch einer kann darauf verzichten. Ich nicht.

Nur meine 2 €¢...
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!