[TUTORIAL] Kleiner Gamechanger bei der Windows Migration zu Proxmox

Wenn du keine Probleme bisher hattest, dann ist ja gut, ich habe auch schon ca. 100 VMs bei Kunden auf der 285.
Da hier und von einzelnen Kunden Probleme berichtet wurden, nutze ich derzeit wieder die 271.
Alle auf 285 ohne Probleme, sind auch OK. Probleme bei meinen Kunden gab es nur bei Win2025 oder Win11.
ja hab auch gerade gelesen das es überwiegend 2025 und w11 betrifft. Gut das wir 2019 und 2022 fahren :) Danke!
 
Tritt auch bei folgendem Win SRV 2K19 auf:

1764156515149.png1764156485299.png

wenn man das hat einfach die Builds ergänzen im .bat oder gibts ne Möglichkeit, dass es unabhängig des Builds entsprechend den korrekten Treiber ziehen würde? Wäre ggf. ne Optimierung des Scripts?
 
Wäre jetzt schön gewesen, wenn man mal das Hauptverzeichnis der DVD gesehen hätte und auch ob das Script von der DVD aus gestartet wurde.

Das wurde natürlich gemacht und hatte bei meinen Tests bisher auch immer funktioniert, indem man das .BAT einfach doppelklickt und fertig.
 
Das wurde natürlich gemacht und hatte bei meinen Tests bisher auch immer funktioniert, indem man das .BAT einfach doppelklickt und fertig.
Dann hast du das jetzt falsch verstanden, den die fehlermeldung das er die devcon.exe nicht findet, kann ja bedeuten, das sie nicht drauf ist - daher die frage.
 
Dann hast du das jetzt falsch verstanden, den die fehlermeldung das er die devcon.exe nicht findet, kann ja bedeuten, das sie nicht drauf ist - daher die frage.

Es ist die ISO aus dem ersten Beitrag, eingebunden in der VM, direkt das bat gestartet vom CD-Laufwerk aus.
 
Es ist die ISO aus dem ersten Beitrag, eingebunden in der VM, direkt das bat gestartet vom CD-Laufwerk aus.
Hab das gerade mal getestet - ich kann den Fehler mit der ersten CD von Falk leider nicht nachvollziehen.
Ist auf der Installation in den Umgebungsvariablen etwas anders?
Am Laufwerksbuchstaben liegt es nicht (E: und Z: getestet)
Funktioniert das ganze, wenn du es mit einer Eingabeaufforderung von CD direkt startest?
 
Tritt auch bei folgendem Win SRV 2K19 auf:

View attachment 93306View attachment 93305

wenn man das hat einfach die Builds ergänzen im .bat oder gibts ne Möglichkeit, dass es unabhängig des Builds entsprechend den korrekten Treiber ziehen würde? Wäre ggf. ne Optimierung des Scripts?
Du darfst das Script nicht per Klick starten, außer bei 2022+. Immer eine CMD oder PS mit dem Pfad der CD aufmachen und da ausführen. Ein auslesen des CD Laufwerks scheitert leider, wenn mehrere Laufwerke vorhanden sind. Wenn jemand einen guten Tipp dafür hat, kann man das Script gern anpassen.
 
Du musst eh neue LUNs nutzen, da Proxmox nicht mit VMFS umgehen kann.
Schau dir mal das Thema Migration mit minimaler Downtime im Wiki an oder warte bis Heise meinen Vortrag von heute Nachmittag offiziell zugänglich macht, da stelle ich das als Livedemo vor. Falls jemand in Regensburg bei der Heise S2N ist, gern um 14:15 Uhr vorbeikommen.
Funktioniert das auch mit einen Ceph-Storage bei Proxmox?

Hier konnte ich dazu ein altes Video finden
https://www.youtube.com/watch?v=8mQVBDYmjnY
 
  • Like
Reactions: Falk R.
Die Methode von Falk (der ja auch die von dir verlinkte Präsentation gehalten hat) sollte grundsätzlich mit allen Netzwerkspeichern funktionieren, die vom alten und neuen Hypervisor unterstüzt werden. Nun wird Ceph von vmware ja nicht unterstützt, aber du könntest z.B. eine VM in deiner ProxmoxVE-Umgebung einrichten, die eine NFS-Freigabe bereitstellt und die Daten selbst in Ceph ablegt. Ist halt am Ende ein bisschen mehr Geklicke, um die dort gespeicherten *vmdk-Dateien in das endgültige Zielstorage (ceph blockspeicher) zu verschieben.
 
Die Frage ist, wie man große VMs von vCenter-Cluster mit minimaler downtime zu einem PVE-Ceph-Cluster migrieren kann :)
 
Die Frage ist, wie man große VMs von vCenter-Cluster mit minimaler downtime zu einem PVE-Ceph-Cluster migrieren kann :)
Das ist mir klar und ja, das funktioniert mit Falks Methode, braucht halt eine Netzwerkfreigabe als "Zwischenlager".
 
Die Frage ist, wie man große VMs von vCenter-Cluster mit minimaler downtime zu einem PVE-Ceph-Cluster migrieren kann :)
So wie ich es jeden Monat mehrfach mache. ;)
Irgendwo brauchst du einen temporären NFS Speicher. Entweder habe ich viele SSDs und kann Ceph ein paar vorenthalten, dann baue ich schnell einen ZFS Pool von dem ich einen NFS Speicher für vSphere bereitstelle. Nach der Migration wird der ZFS Pool gekillt und die SSDs dem Ceph hinzugefügt.
Alternativ geht auch ein externer Server oder ein altes Storage, welches NFS bereitstellen kann.
Ich habe auch schon einen für PBS vorgesehenen Server mit vielen NVMe's dafür genutzt, bevor er danach zum PBS geworden ist.
Eine alte NetApp aus der Rümpelkammer hilft auch. ;)

Es gibt viele Möglichkeiten, aber du brauchtst unbedingt einen Speicher der von vSphere unterstützt wird und auch von anderen System genutzt werden kann, also alles ohne VMFS. Da bleibt bei vSphere leider nur NFS übrig.
 
Last edited:
  • Like
Reactions: Johannes S