Ich würde dringend dazu raten einen Benchmark mit beiden Varianten zu fahren (ja, das dauert dann halt etwas länger, weil man dann ja mehrmals neu aufsetzen und testen muss). ocfs2 ist halt wirklich nicht gut unterstützt und das wird sich auch nicht ändern. Und anders als etwa beim Linux-Kernel oder zfs scheint (soweit ich weiß) der Upstream (also Oracle) auch aktuell nicht mehr viel Arbeit rein zu stecken, es ist also auch nicht absehbar, dass sich da irgendwas verbessern wird.
Mir wären die Frickelei und Klemmzüge die mit dem Fahren eines nicht unterstützten Setups nötig sind schlicht zu blöd in Vergleich zu einer gut getesteten und robusten Variante. Aber: Ich verstehe, dass der Kunde natürlich (auch wenn er ohne Snapshots leben kann) glücklicher ist, wenn er die gewohnten Features beibehalten kann. Aber vielleicht lässt sich das ja entschärfen, wenn er dafür mit der einen Variante bessere Performance bekommt? lvm/thick ist ein Blockspeicher, das heißt die Ablage der Daten kommt ohne Dateisystem aus. Da damit ein Layer wegfällt, sollte das theoretisch eine bessere Performance als mit ocfs2 bedingen. Muss man halt benchmarken

Praktisch (mir fällt die Erfahrung für einen eigenen Vergleich, nur zum Testen setze ich im Homelab kein ocfs2 auf

) haben das hier immer mal wieder Leute aus der Praxis bestätigt.
@Falk R. berichtet hier zum Beispiel von deutlich größerer Performance für ein Setup mit Blockspeicher statt Dateisystem:
Thanks for you opinion, I realy try to wrap my head around that subject, but I have a few more questions:
Yes, you are probably correct, but there would be an overhead non the less, correct? And I'm probably missing something, but I don't see the benefits of using LVM thinpools, when I'm using one drive per pool only. Snapshotting of the vms should work just fine and the filesystem would only contain vms, so there is no need to create a snapshot of the drive itself.
Also an info that might help: We automate creation an deletion of some vms and need access using guestfish, so we need...
@JayTee75
Mal ein Schwank aus meiner Jugend

ich arbeite mit VMware seit 2006 (ESX 3.0 und manchmal 2.5), daher bin ich auch etwas doll mit meiner VMware Denke falsche Wege gegangen.
Bei proxmox wir viel mit Block Devices gearbeitet, anstatt Dateien auf ein FS zu packen. Das hat weniger Overhead und bringt mehr Performance.
Bei Benchmarks ESXi mit VMFS6 gegen RAW Disks auf ZFS Single/RAID1 oder LVM-Thin hast du auf dem gleichen Blech ca. 20% mehr Leistung. Bei SQL Bechmarks sogar bis zu 80% mehr Leistung.
Also am besten RAW (Block Devices) nutzen.

Nach seiner Erfahrung für Standardworkloads bis zu 20%, bei SQL-Servern auch deutlich mehr. Wenn sich das in euren Tests bestätigt, wäre das ja envtl. was, womit man diese bittere Pille den Kunden etwas schmackhafter machen kann
So hätte ich das (als Ceph-Laie) nicht formuliert. Das, was Ceph unbedingt braucht, ist ein schnelles Netz - oder auch zwei. Und zwar idealerweise ein separates. Für mich hört sich das echt nach Storage-Area-Network an ;-)
Das stimmt natürlich, aber im gängigen Sprachgebrauch wird damit ja doch die Anbindung von sehr teurer Storage-Hardware über ebenfalls vergleichsweise teure Glasfaserleitungen an sehr teure Server verstanden, man ist schließlich Enterprise

vSAN ist schließlich nur was für Mittelständler (Aussage eines mir bekannten vmware-Admins, nicht meine

). Ich habe lieber nicht nachgefragt, ob das Cern noch als Mittelstand durchgeht, weil die ja sowas ähnliches (ceph) benutzen
