Hallo,
naja die Frage ist, was ihr wollt
Grundsätzlich braucht ihr den dritten Knoten für einen Zwei-Knoten-Cluster mit ZFS-Sync oder einen shared Storage auf ner NAS/SAS nicht, der wird erstmal laufen. Es gibt dann aber keine Hochverfügbarkeit, weil kein automatisches Migrieren und Wiederanfahren beim Ausfall eines Knotens. Damit das funktioniert, muss sich ja beim Ausfall eines Knotens der verbleibende Rest des Clusters eine Mehrheitsentscheidung treffen, wer übernimmt, was dann nicht geht.
Die gute Nachricht ist: Dafür kann man sich einen eigenen Host, der selbst nicht zum Cluster gehört als sogenanntes qDevice hinstellen:
https://pve.proxmox.com/wiki/Cluster_Manager#_corosync_external_vote_support
Dafür reicht sogar ein raspberry, im professionellen Umfeld bietet sich da natürlich eher ein NAS an (sofern das die Funktion hat oder einen erlaubt eine VM zu betreiben) oder ein älterer Server, den man als Proxmox Backup Server-Host verwendet.
Zu Ceph: Habe ich im homelab nicht im Einsatz, da hoffnungsloser overkill, wäre aber als Abschlussprojekt mit Hardware durchaus spannend:
Die Grundidee bei der Integration in Proxmox , dass man Compute- und Storage auf den gleichen Knoten hat (Hyperkonvergente Infrastruktur) und die dann einen gemeinsamen Verbund bilden. Ceph bildet dann aus allen Storageressourcen der Knoten einen verteilten Netzspeicher, der resilent gegen Ausfälle etc. ist.
Das macht aber nach meinen angelesenen Wissensstand erst ab drei (besser fünf) Knoten Sinn und benötigt pro Knoten mindestens vier Platten (davon sollte mindestens ein Teil NVME oder SATA SSD sein), damit das ordentlich skaliert. Auch wird empfohlen für die Datenübertragung ein eigenes dezidiertes Netzwerk zwischen den Knoten aufzubauen (um eine gute Performance zu gewährleisten). Das gilt zwar auch für ein normales Cluster (also ein eigenes Netz, dass die Synchronisation der Knoten macht, damit es keine Latenzprobleme gibt, das sollte trotzdem mit einer nicht ganz so dicken Leitung auskommen).
Falk kann da sicher mehr zu schreiben, der hat (anders als ich) einschlägige praktische Erfahrung.
Sprich: Wenn das von euren Hardwareressourcen möglich wäre, wäre das definitiv ein cooles Abschlußprojekt, eine andere Frage ist, ob das so dann am Ende für euch auch praxistauglich oder zu sehr overkill ist.
Wenn es eher darum geht, wie ihr am Ende mit euren vorhandenen Ressourcen (2 Knoten plus vorhandener Storage) plus überschaubaren Investitionen (Host für PBS + Qdevice) zu einen funktionalen Ersatz für vmware kommt, wäre eine andere Vorgehensweise sinnvoller, weil mit zwei Knoten baut man halt kein produktives Ceph-Cluster und zum Testen unter realistischen Bedingungen taugt das auch nur sehr bedingt.
Womit wir wieder beim Punkt wären: Welche Anforderungen habt ihr und welche Hardware mit welchen Spezifikationen, wieviel Geld darf/kann/muss ausgegeben werden?
Schöne Grüße, Johannes.