Migration von VMware 8.0 Foundation zu Proxmox VE 9 – Einschätzung & Fragen zu iSCSI/LVM (shared) Cluster-Setup

Sep 11, 2025
28
12
3
Hallo zusammen,

wir kommen von einer VMware 8.0 Foundation Umgebung (3 Hosts) und möchten aufgrund der Lizenz-/Preispolitik von VMware auf Proxmox VE 9 umsteigen.
Ich möchte hier einfach mal eine Einschätzung bekommen, ob unser bisheriger Weg technisch sinnvoll ist und ob es Stolperfallen gibt, bevor wir den Cluster vollständig aufbauen.

Aktueller Stand​

  • Hardware: 3x Dell PowerEdge R750
  • GPU: je eine NVIDIA A16
  • Proxmox-Version: aktuell ein Node mit Proxmox VE 9.0.10
  • Storage: Anbindung per iSCSI + Multipath, anschließend LVM (shared+snapshot)
  • LUNs waren vorher unter VMware VMFS, jetzt auf LVM umgestellt
  • Snapshots funktionieren auf dem bestehenden Node problemlos
  • Die virtuellen Festplatten (VM-Disks) werden auf dem LVM-Storage als qcow2-Dateien angelegt – das ist so gewollt und meines Wissens nach auch die empfohlene Variante, korrekt?


Frage 1: Temporäre Redundanz über alte Nutanix-Hardware​

Wir haben noch eine alte Nutanix-Box, die wir gerne vorübergehend anbinden würden, um während der Migration etwas Redundanz zu schaffen (da aktuell nur ein produktiver PVE-Host läuft).

Ziel wäre, bei Bedarf kritische VMs dorthin zu verschieben, falls der Hauptknoten ausfällt.

Fragen:
  • Funktioniert das grundsätzlich trotz unterschiedlicher Hardware (Dell vs. Nutanix)?
  • Ich gehe davon aus, dass eine Live-Migration hier nicht möglich ist (wegen CPU-/Hardware-Unterschieden) und man die Maschinen herunterfahren muss – ähnlich wie bei VMware?


Frage 2: Weiterer Node mit iSCSI + LVM (shared)​

Beim nächsten Schritt möchte ich den zweiten Dell-Server auf Proxmox migrieren.
Geplant ist, dort ebenfalls manuell iSCSI + Multipath einzurichten.

Da die LUNs shared sind, möchte ich sicherstellen, dass ich korrekt vorgehe:
  1. iSCSI-Ziele anbinden und Multipath konfigurieren
  2. LVM-Struktur einbinden (nicht neu erstellen!)
  3. GPU- und Netzwerkkonfiguration prüfen
  4. Danach Node dem bestehenden Cluster hinzufügen
Fragen:
  • Gibt es hier etwas zu beachten, damit sich nichts gegenseitig überschreibt oder blockiert?
  • Erkennt Proxmox die LVMs automatisch im Cluster, ähnlich wie bei VMware mit shared VMFS-LUNs?


Vielen Dank schon mal für euer Feedback!
Ich möchte nur vermeiden, dass ich mir beim Hinzufügen des zweiten Nodes versehentlich das Storage-Setup zerschieße


Grüße Jan
 
Hallo Jan,
Frage1: Klar kannst du verschiedene Hardware nutzen. Wenn du Live Migration nutzen möchtest, dann bei der VM die älteste CPU des Clusters einstellen, z.B. Sandy Bridge und wenn du den richtigen Typ gewählt hast, kannst du live migrieren.

Frage2: Einfach iSCSI und Multipath konfigurieren. Der Rest geschieht dann automatisch, wenn die gleichen DIsks gesehen werden. Ich nehme die Nodes nach der Netzwerkkonfiguration direkt in den Cluster auf und wenn du dann die LUNs präsentierst, ist der Datastore direkt verfügbar. Geht aber auch anders herum. Die LVM Struktur steht ja auf den Disks und wird automatisch gelesen.
In der Regel zerschießt man beim hinzufügen eines Nodes nichts, außer man hatte schon ein paar Dinge wie VMs oder Datastores auf dem neuen Node angelegt, dann ist die Information nachher weg.
 
Hallo Jan,
Frage1: Klar kannst du verschiedene Hardware nutzen. Wenn du Live Migration nutzen möchtest, dann bei der VM die älteste CPU des Clusters einstellen, z.B. Sandy Bridge und wenn du den richtigen Typ gewählt hast, kannst du live migrieren.

Frage2: Einfach iSCSI und Multipath konfigurieren. Der Rest geschieht dann automatisch, wenn die gleichen DIsks gesehen werden. Ich nehme die Nodes nach der Netzwerkkonfiguration direkt in den Cluster auf und wenn du dann die LUNs präsentierst, ist der Datastore direkt verfügbar. Geht aber auch anders herum. Die LVM Struktur steht ja auf den Disks und wird automatisch gelesen.
In der Regel zerschießt man beim hinzufügen eines Nodes nichts, außer man hatte schon ein paar Dinge wie VMs oder Datastores auf dem neuen Node angelegt, dann ist die Information nachher weg.
Hallo Falk,

ich habe aktuell den Proxmox VE 9-Host komplett eingerichtet und bereits einen Cluster erstellt.
Der nächste Schritt wäre jetzt, dass ich einen zweiten Node in den Cluster joinen möchte.

Auf diesem neuen Node habe ich schon alles vorbereitet:
  • iSCSI eingerichtet (Pure Storage FlashArray als Ziel)
  • Multipath läuft stabil
  • Die LUNs erscheinen korrekt unter /dev/mapper/
  • ich habe alle Alias sauber anhand der WWID gesetzt
  • Ich habe die Volume Groups (pure-vg01 bis pure-vg04) bereits erstellt,
    und sie werden im Proxmox-GUI unter LVM korrekt angezeigt (auf allen Nodes)


Jetzt bin ich beim letzten Schritt – dem Cluster-Join
und habe auf einer technischen Seite gelesen, dass man danach (oder davor) die LVM-Volumes explizit auf Shared-Modus setzen soll,
damit das Cluster-Locking über lvmlockd funktioniert. (warum? Übernimmt das nicht Proxmox?)

Der Hinweis lautete sinngemäß:
„Nach dem Cluster-Join muss man für jede gemeinsame VG auf allen Nodes ausführen:



vgchange --shared y <vgname>

um das LVM-Cluster-Locking zu aktivieren (sonst bleibt sie im lokalen Locking-Modus).“


Jetzt meine Frage an euch/dich:
➡️ Muss man das tatsächlich manuell machen, also vgchange --shared y auf jeder Pure-VG ausführen,
bevor man VMs im Cluster hin- und herschiebt oder Snapshots nutzt?
Oder erkennt Proxmox bzw. LVM das automatisch, sobald lvmlockd im Cluster aktiv ist und storage.cfg shared=1 enthält?

Ich möchte den Join erst machen, wenn ich sicher bin, dass dadurch nichts schiefgeht (Stichwort: LVM-Metadaten).

Danke vorab für eine Bestätigung aus der Praxis oder von offizieller Seite
 
Hallo Falk,

ich habe aktuell den Proxmox VE 9-Host komplett eingerichtet und bereits einen Cluster erstellt.
Der nächste Schritt wäre jetzt, dass ich einen zweiten Node in den Cluster joinen möchte.

Auf diesem neuen Node habe ich schon alles vorbereitet:
  • iSCSI eingerichtet (Pure Storage FlashArray als Ziel)
  • Multipath läuft stabil
  • Die LUNs erscheinen korrekt unter /dev/mapper/
  • ich habe alle Alias sauber anhand der WWID gesetzt
  • Ich habe die Volume Groups (pure-vg01 bis pure-vg04) bereits erstellt,
    und sie werden im Proxmox-GUI unter LVM korrekt angezeigt (auf allen Nodes)


Jetzt bin ich beim letzten Schritt – dem Cluster-Join
und habe auf einer technischen Seite gelesen, dass man danach (oder davor) die LVM-Volumes explizit auf Shared-Modus setzen soll,
damit das Cluster-Locking über lvmlockd funktioniert. (warum? Übernimmt das nicht Proxmox?)
Wenn du die LVM als Datastore in der GUI anlegst, solltest du beim ersten Node schon shared anhaken. Dann funktioniert alles.
Der Hinweis lautete sinngemäß:



Jetzt meine Frage an euch/dich:
➡️ Muss man das tatsächlich manuell machen, also vgchange --shared y auf jeder Pure-VG ausführen,
bevor man VMs im Cluster hin- und herschiebt oder Snapshots nutzt?
Oder erkennt Proxmox bzw. LVM das automatisch, sobald lvmlockd im Cluster aktiv ist und storage.cfg shared=1 enthält?
Ja wenn das shared=1 steht, ist alles fein.
 
  • Like
Reactions: Johannes S