Ich kann es nur immer wieder erwähnen, das ich gern mal gewusst hätte, warum GLusterFS v. Proxmox so sträflich behandelt wird. Wenn man den posts dazu folgt, findet man Aussagen vom STAFF wie "würde ich max. mit 4 Nodes machen und danach ceph", "bis zu 10 Nodes funktioniert dies". Man findet auch Kritik zur Recovery-Performance bei Ausfällen. Diese sei sehr schlecht mit Glusterfs. Andere senken ihre Ansprüche und können an ihrem NFS-Export von GLusterFS nix aussetzen. Jetzt liest man natürlich in den Vergleichstests, dass man viel optimieren kann - dies allerdings im Internet nicht hier.
Ich finds schade. Darum habe ich mal recherchiert nach einem Clusterfilesystem mit den gleichen Möglichkeiten wie GlusterFS, aber mit Subvolume+Snapshot-Funktionalität.
Warum das Ganze. Ich hätte gern ein clusterFS, das ich für Container einsetzen kann, wo das Backup via snapshot einen konsistenten Zustand sichern kann und was recht fix geht, wenn ich DBs oder fileserver drin laufen lasse.
Ich habe leider kein freies Opensource-System gefunden. Die meisten sind für riesige Umgebungen und Performance gedacht. Features wie Snapshot, Subvolume, Scrubbing fehlen da komplett. Viele sind auch nicht frei und kosten Lizenzen. Trotzdem möchte ich mal eins, zwei zur Sprache bringen, die am ehesten an GlusterFS rankommen und auch sehr ähnlich sind.
Und zwar: BeeGFS. Ist ähnlich, da auf posix-Filesystem basierend und sehr felxibel skalierbar. Ich kann sogar einen SingleHost installieren und es drauf laufen lassen, was natürlich wenig sinnvoll wäre. Für alle, die mit GlusterFS so ihre Problemchen haben, empfehle ich zu nächst die Doku von RedHat. Ansonsten könnt ihr natürlich BeeGFS eine Chance geben. Es wird zwar nicht direkt von Proxmox unterstützt, aber das wird ja GlusterFS auch nicht. Die Einrichtung kannst du auch in die fstab machen und dann ein Dir-Storage erstellen. Hast du die selben funktionen wie mit GlusterFS. Ein Performance-Vergleich findet man hier. Ich will mal einen Vergleich hier publizieren.
Bei ceph hab ich nicht mehr alles im Kopf. Wenn was falsch ist, dann schreibt mal. Leider habe ich erst spät gesehen, das BeeGFS vermarktet wird, deshalb reicht die Community-Version für den produktiven Einsatz vermutlich nicht aus. Is ja trotzdem ganz nett zu wissen. ;-) DRBD ist ja wieder im Kommen. Bei SeaweedFS fand ich das Tiering recht interessant, was anscheinend besser ist, als das von GlusterFS.
Fazit:
Eine Alternative mit Subvolumes findet man für GlusterFS nicht, da mind. der Bit Rotate Schutz fehlt. ZFS als Raid darunter zu nutzen, um dies auszugleichen, finde ich bei einem HCI als Ressourcenverschwendung. Um Container funktional auf einem ClusterFS zu nutzen, benötigt man nun mal Subvolumes und Snapshot, damit man nicht zusätzliche Layer wie eine Imagedatei (Qcow) nutzen muss. Es wäre natürlich mal interessant einen Container auf Basis einer QCow2-Datei mit einer VM bezügl. Performance zu vergleichen. Die Proxmox-Entwickler haben sich bereits negativ über einen zusätzlichen Layer geäußert und deshalb wird sich in diese Richtung wohl leider nichts passieren. Container im Cluster-Umfeld bleiben also Ceph vorbehalten. Wer Deduplizierung auf seinem Cluster-Storage bevorzugt wie ich, der muss also bei VMs bleiben und kann die schöne Containerfunktion von Proxmox nicht auskosten.
Ich finds schade. Darum habe ich mal recherchiert nach einem Clusterfilesystem mit den gleichen Möglichkeiten wie GlusterFS, aber mit Subvolume+Snapshot-Funktionalität.
Warum das Ganze. Ich hätte gern ein clusterFS, das ich für Container einsetzen kann, wo das Backup via snapshot einen konsistenten Zustand sichern kann und was recht fix geht, wenn ich DBs oder fileserver drin laufen lasse.
Ich habe leider kein freies Opensource-System gefunden. Die meisten sind für riesige Umgebungen und Performance gedacht. Features wie Snapshot, Subvolume, Scrubbing fehlen da komplett. Viele sind auch nicht frei und kosten Lizenzen. Trotzdem möchte ich mal eins, zwei zur Sprache bringen, die am ehesten an GlusterFS rankommen und auch sehr ähnlich sind.
Und zwar: BeeGFS. Ist ähnlich, da auf posix-Filesystem basierend und sehr felxibel skalierbar. Ich kann sogar einen SingleHost installieren und es drauf laufen lassen, was natürlich wenig sinnvoll wäre. Für alle, die mit GlusterFS so ihre Problemchen haben, empfehle ich zu nächst die Doku von RedHat. Ansonsten könnt ihr natürlich BeeGFS eine Chance geben. Es wird zwar nicht direkt von Proxmox unterstützt, aber das wird ja GlusterFS auch nicht. Die Einrichtung kannst du auch in die fstab machen und dann ein Dir-Storage erstellen. Hast du die selben funktionen wie mit GlusterFS. Ein Performance-Vergleich findet man hier. Ich will mal einen Vergleich hier publizieren.
Cluster FS | GlusterFS | BeeGFS | SeaweedFS | DRBD | Ceph |
Komprimierung | ja, via VDO or ZFS | ja, via VDO or ZFS | ja, via VDO or ZFS | ja, via VDO or ZFS | ja |
Deduplizierung | ja, via VDO or ZFS | ja, via VDO or ZFS | ja, via VDO or ZFS | ja, via VDO or ZFS | nein |
Snapshot | ja, nicht in Proxmox | nein | nein | nein | ja |
Subvolumes | nein | nein | nein | nein | ja |
High Availibility | ja | ja, als Mirror | ja | ja | ja |
CIFS-Config integriert | ja | nein, separat | nein, separat | nein, separat | ja |
NFS-Config integriert | ja | nein, separat | nein, separat | nein, separat | ja |
Bit-Rotate-Schutz | ja | nein, mit zfs | nein, mit zfs | nein, mit zfs | ja |
Belastbarkeit | ja | nur in Enterprise | ja | ja | ja |
RDMA | ja | ja | nein | ja | ja |
Quota/Acl | ja | nur in Enterprise | nein | ja | ja |
Geo Replication | ja | nein | ja | ja | ja |
Tiering | ja | nein | ja | nein | Cache tiering |
iSCSI | ja | nein, separat | nein, separat | nein, separat | ja |
use case | HCI, more | HCI, more | HCI, more | Backup, HCI, more | HCI, more |
Bei ceph hab ich nicht mehr alles im Kopf. Wenn was falsch ist, dann schreibt mal. Leider habe ich erst spät gesehen, das BeeGFS vermarktet wird, deshalb reicht die Community-Version für den produktiven Einsatz vermutlich nicht aus. Is ja trotzdem ganz nett zu wissen. ;-) DRBD ist ja wieder im Kommen. Bei SeaweedFS fand ich das Tiering recht interessant, was anscheinend besser ist, als das von GlusterFS.
Fazit:
Eine Alternative mit Subvolumes findet man für GlusterFS nicht, da mind. der Bit Rotate Schutz fehlt. ZFS als Raid darunter zu nutzen, um dies auszugleichen, finde ich bei einem HCI als Ressourcenverschwendung. Um Container funktional auf einem ClusterFS zu nutzen, benötigt man nun mal Subvolumes und Snapshot, damit man nicht zusätzliche Layer wie eine Imagedatei (Qcow) nutzen muss. Es wäre natürlich mal interessant einen Container auf Basis einer QCow2-Datei mit einer VM bezügl. Performance zu vergleichen. Die Proxmox-Entwickler haben sich bereits negativ über einen zusätzlichen Layer geäußert und deshalb wird sich in diese Richtung wohl leider nichts passieren. Container im Cluster-Umfeld bleiben also Ceph vorbehalten. Wer Deduplizierung auf seinem Cluster-Storage bevorzugt wie ich, der muss also bei VMs bleiben und kann die schöne Containerfunktion von Proxmox nicht auskosten.
Last edited: