Linux/Proxmox Equivalent to 2-Node Azure Stack HCI (HyperV with S2D) ?

kurzes durchschauen - 2 knoten + witness entspricht circa 2 PVE nodes + qdevice. auf storage ebene gibts nix out of the box was 2x2 redundanz macht (also 4 kopien, pro node jeweils zwei auf zwei unabhaengige platten) - ceph erfordert mehr nodes. am ehesten in die richtung wuerde wohl zfs + (haeufige) replication gehen, mit dem, risiko dass bei automatischem fail-over die daten seit der letzten replication weg sind.
 
  • Like
Reactions: RolandK
> auf storage ebene gibts nix out of the box was 2x2 redundanz macht

ich suche jetzt seit X jahren nach einer brauchbaren lösung für einen 2-node hyperconverged cluster im linux umfeld. etwas enttäuschend, daß ausgerechnet microsoft da was zu bieten hat und aus dem linux lager irgendwie nix brauchbares kommt.

stormagic fand ich damals mit vmware nice, aber auch teuer und komplex und mit kvm integration kommen die nicht in die pötte....

sowas wird doch eigentlich dauernd und überall gebraucht, gerade im small-office/home-office/branch-office bereich...

würde mir wünschen, daß da jemand mal was schönes als integrierte lösung baut...

was ist mit glusterfs oder drbd als basis ?
 
Last edited:
> auf storage ebene gibts nix out of the box was 2x2 redundanz macht

ich suche jetzt seit X jahren nach einer brauchbaren lösung für einen 2-node hyperconverged cluster im linux umfeld. etwas enttäuschend, daß ausgerechnet microsoft da was zu bieten hat und aus dem linux lager irgendwie nix brauchbares kommt.

stormagic fand ich damals mit vmware nice, aber auch teuer und komplex und mit kvm integration kommen die nicht in die pötte....

sowas wird doch eigentlich dauernd und überall gebraucht, gerade im small-office/home-office/branch-office bereich...

würde mir wünschen, daß da jemand mal was schönes als integrierte lösung baut...

was ist mit glusterfs oder drbd als basis ?
StorMagic SvSAN works with Proxmox in a 2 node configuration. Please see install guide here if you want to try it: https://support.stormagic.com/hc/en-gb/sections/14959498948381-SvSAN-Proxmox-7
 
  • Like
Reactions: RolandK
kurzes durchschauen - 2 knoten + witness entspricht circa 2 PVE nodes + qdevice. auf storage ebene gibts nix out of the box was 2x2 redundanz macht (also 4 kopien, pro node jeweils zwei auf zwei unabhaengige platten) - ceph erfordert mehr nodes. am ehesten in die richtung wuerde wohl zfs + (haeufige) replication gehen, mit dem, risiko dass bei automatischem fail-over die daten seit der letzten replication weg sind.
We do have a 2 node solution (plus lightweight remote witness) working with SvSAN as the storage layer: https://support.stormagic.com/hc/en-gb/sections/14959498948381-SvSAN-Proxmox-7
 
  • Like
Reactions: RolandK
Hi Roland,
ich habe mal ein Ceph gebaut, der quasi das gleiche macht, wie S2D nested Mirror. Performt nicht ganz so gut wie MS und war ganz schöne Bastelei mit der Crush Map. Ich mache einfach wieder mehr 4 Node Cluster, die sind Nutzerfreundlicher und du hast bei einer Wartung nur 25% down.
 
  • Like
Reactions: RolandK

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!