VMware → Proxmox VE 8/9: GPU (NVIDIA A16) an mehrere VMs? Und: Sinnvoll bei überwiegend Windows-Server?

j.gelissen

New Member
Sep 11, 2025
4
2
3
Hallo zusammen,

wir evaluieren eine Migration von VMware vSphere zu Proxmox VE, da wir die stark gestiegenen Lizenzkosten nicht weiter mittragen möchten. Bevor wir tiefer einsteigen, habe ich zwei Kernfragen an die Runde:

Fragen​

  1. GPU-Passthrough / -Sharing
    • Können wir unter Proxmox VE 8 bzw. 9 unsere NVIDIA-GPUs sauber an VMs durchreichen?
    • Ist es möglich, eine physische Grafikkarte (NVIDIA A16) gleichzeitig an mehrere VMs zu geben (Stichwort vGPU/SR-IOV/MIG)?
    • Falls ja: Welche Voraussetzungen (Treiber, Lizenzen, Best Practices) sind zu beachten? Falls nein: Bestätigt bitte, dass es nur „exklusives“ PCIe-Passthrough pro VM ist.
  2. Eignung von Proxmox für Windows-lastige Umgebungen
    • Wir sind stark Windows-lastig (ca. 60 Windows-Server, 3 Linux). Macht Proxmox VE für so ein Setup aus eurer Erfahrung Sinn?
    • Worauf sollten wir speziell bei Windows-Servern als Gäste achten (Treiber, VirtIO, Backup/Snapshot-Strategien, Live-Migration, Lizenzierung)?

Hardware / Umgebung​

Server: Dell PowerEdge R750
BIOS-Hersteller: Dell Inc.
BIOS-Version: 1.15.2

Mainboard: PowerEdge R750

Prozessoren:

  • Modell: Intel(R) Xeon(R) Gold 6346 CPU @ 3.10GHz
  • Prozessorgeschwindigkeit: 3,09 GHz
  • Sockets: 2
  • Cores pro Socket: 16
  • Logische Prozessoren: 64
  • Hyper-Threading: Aktiv
Arbeitsspeicher:

  • Gesamt: 1.023,46 GB
  • Zuweisung VMs: 1.023,09 GB
  • System: 385,51 MB
Energie-/CPU-Features:

  • Technologie: ACPI C-states
  • Aktive Richtlinie: Hochleistung
Grafikkarten:

  • NVIDIA A16
Netzwerk:

  • vmnic0: Broadcom Corporation NetXtreme BCM5720 Gigabit Ethernet — Treiber: ntg3 (4.1.14.0), bc 1.39, ncsi 1.5.28.0
  • vmnic1: Broadcom Corporation NetXtreme BCM5720 Gigabit Ethernet — Treiber: ntg3 (4.1.14.0), bc 1.39, ncsi 1.5.28.0
  • vmnic2: Broadcom NetXtreme E-Series Advanced Dual-port 25Gb SFP28 Ethernet OCP 3.0 Adapter — Treiber: bnxtnet (229.0.146.0), Firmware 218.0.219.13 /pkg 21.85.21.91
  • vmnic3: Broadcom NetXtreme E-Series Advanced Dual-port 25Gb SFP28 Ethernet OCP 3.0 Adapter — Treiber: bnxtnet (229.0.146.0), Firmware 218.0.219.13 /pkg 21.85.21.91
  • vmnic4: Broadcom BCM57412 NetXtreme-E 10Gb RDMA Ethernet Controller — Treiber: bnxtnet (229.0.146.0), Firmware 218.0.219.13 /pkg 21.85.21.91
  • vmnic5: Broadcom BCM57412 NetXtreme-E 10Gb RDMA Ethernet Controller — Treiber: bnxtnet (229.0.146.0), Firmware 218.0.219.13 /pkg 21.85.21.91
Storage:

  • Pure Storage FA‑X20R3

Kontext / Zielbild​

  • Ziel ist eine stabile, supportbare Lösung. Falls GPU‑Sharing (mehrere VMs pro physischer GPU) unter Proxmox VE möglich ist: Welche Software-/Lizenzbausteine (z. B. NVIDIA vGPU Software) und Treiberstände setzt ihr produktiv ein?
  • Falls nur klassisches PCIe‑Passthrough pro VM sinnvoll ist: Welche Best Practices (IOMMU/VT‑d, BIOS/UEFI‑Settings, Kernel‑Parameter, Blacklisting, Reset‑Support) habt ihr in produktiven Setups?
  • Für die Windows‑Dominanz: Welche Erfahrungen habt ihr mit Live‑Migration, Backups (z. B. Proxmox Backup Server) und Treiber/Agenten in großen Windows‑Landschaften?
Vielen Dank vorab für eure Einschätzungen und Praxisberichte!

Viele Grüße Jan
 
Hallo,

was mir nicht ganz klar ist: Wieviele compute-Server setzt ihr ein? Da ihr auch eigene Storage-Hardware habt, gehe ich davon aus, dass ihr einen Cluster habt, je nach dessen Größe muss man schauen.

Zum Rest: Ich habe nicht wirklich Erfahrung mit Windows-Gästen, aber ich gebe mal mein angelesenes Halbwissen wieder:

  • Das Proxmox-Wiki hat einige Howtos zu den best Practices unter Windows: https://pve.proxmox.com/wiki/Windows_2025_guest_best_practices Da sind auch die Howtos für andere Windows-Versionen verlinkt. Wichtig ist, dass die dortige Empfehlung für den CPU-Typ "host" in Sachen performance nicht mehr immer optimal ist, weil dann unter Umständen Windows-Workarounds für Hardware-Securitybugs (Spectre und co) aktiv sind, die Performance kosten, da muss man dann einen anderen CPU-Typ auswählen: https://forum.proxmox.com/threads/t...-of-windows-when-the-cpu-type-is-host.163114/
  • Storage-Arrays: Wie habt ihr den angebunden? Per FC? Dann kann man dafür LVM als Storage-Backend nutzen: https://pve.proxmox.com/wiki/Storage
    Lange gab es dann keinen Snapshotsupport, das hat sich aber mit Proxmox 9.0 geändert, das Feature ist aber noch "experimental", muss man sich also überlegen, ob man das riskieren will. Für Backups mit der eingebauten vzdump-Funktion (Vollbackups in Archivdateien) oder dem ProxmoxBackupServer braucht man KEINEN Snapshotsupport im Storage, da das über eine interne Feature vom qemu-Emulator erledigt wird.
  • Bei ProxmoxVE wird grundsätzlich empfohlen das Cluster-Netzwerk auf einen eigenen Netzwerklink zu betreiben (gerne auch redundant, gerne auch mit dem regulären Netzwerk für die Clients als zusätzliche Redundanz), weil die dafür verwendete Software corosync niedrige Latenzen (< 5ms) vorraussetzt:
  • Hat man nur zwei Compute-Knoten im Cluster, sollte man unbedingt noch ein weiteres Device (z.B. ProxmoxBackupServer) als qdevice einrichten, um split-brain-Situationen zu vermeiden: https://pve.proxmox.com/wiki/Cluster_Manager#_corosync_external_vote_support
  • Da du ja zwei Netzwerkkarten mit 25Gbit/s hast: Wenn das nächste Mal eine Hardwareerneuerung beim Storage ansteht, könnte man sich überlegen stattdessen ein Setup mit Ceph aufzubauen: https://pve.proxmox.com/wiki/Deploy_Hyper-Converged_Ceph_Cluster Das braucht aber mindestens drei Knoten im Cluster (besser mehr).
  • Zu Nvidia-GPUs gibt es einen Wiki-Artikel, pratische Erfahrungen damit habe ich aber keine: https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE
  • Zu PCI(e)-Passtrough:
    https://pve.proxmox.com/wiki/PCI(e)_Passthrough
    https://pve.proxmox.com/wiki/PCI_Passthrough
    (Achtung, das sind zwei verschiedene wiki-Artikel ;)
    Das funktioniert je nach Hardware mehr oder weniger gut, hat eine VM ein durchgereichtes PCI-Gerät, wird es allerdings mit Live-Migration schwierig. Und Memory-Ballooning geht dann auch nicht mehr (imho nicht schlimm, das ist ja eh eher ein Notbehelf): https://pve.proxmox.com/wiki/Dynamic_Memory_Management#Ballooning
  • Zum Backup:
    • Der ProxmoxBackupServer kann stand jetzt KEINE application-awaren-Backups (etwa für AD oder SQL), davon abgesehen ist ihm aber egal, was für ein Betriebssystem auf den VMs läuft. Was aber natürlich geht: Den PBS für die Grundsicherung der VMs nutzen und innerhalb der VM dann eine eigene Backupsoftware für die jeweilige Anwendung. @Falk R. hat mal erwähnt, dass er das so öfter für seine Kunden aufsetzt mit PBS für die VMs und einen Veeam-Agent für AD und MSSQL. Der Witz daran: Da man nur noch relativ wenige Lizenzen für den Agenten braucht, spart man damit (plus der Subscription für den PBS) trotzdem Geld im Vergleich dazu alles per Veeam abzufackeln.
    • Die Deduplizierung funktioniert sehr gut, mit der sync-Funktion kann man auch gut ein offsitebackup auf einen anderen PBS einrichten. Ist auch gut für Ransomwareprotection, wenn man die Berechtigungen und sonstigen Einstellungen passend setzt. Im pull-Modus zieht sich der offsite-PBS die Backups vom lokalen PBS, der Clou: Das geht auch, wenn (dank Firewall) kein Zugriff vom lokalen PBS auf den offsite-PBS möglich ist, der umgekehrte Weg muss natürlich freigeschaltet sein. Verbunden mit Rechten, die zwar ein Hinzufügen neuer Backups erlauben, aber nicht das Bearbeiten oder Löschen der alten macht es das den Ransomware-Gangs schon schwer:
      https://pbs.proxmox.com/docs/storage.html#ransomware-protection-recovery
      Neben einen klassischen Mietserver gibt es mittlerweile auch Firmen wie z.B. Inett oder tuxis die das auch als managed Service anbieten. Mit dem PBS 4.0 kam auch Support für S3 Cloudstorage dazu, der ist aber noch "experimental", das wäre mir für Backupstorage noch zu heikel. Es ist außerdem eher als offsite-Kopie gedacht (analog zu externen Festplatten als removable Datastore oder Magnetband, dafür hat PBS schon seit Ewigkeiten Support drin), nicht als Primärbackup. Sprich: Man richtet sich einen Backupserver lokal ein, der die Backups entgegennimmt, eine Kopie davon wird dann auf den anderen Medien (remote PBS, S3-Storage, Tape oder externe Disc) gesichert.
    • Ich habe ja oben erwähnt, dass die Unterstützung von Snapshots in LVM noch "experimental" ist, was dagegen schon lange und gut funktioniert, sind inkrementelle Backups mit PBS: Die passieren im Snapshot-Modus innerhalb weniger Sekunden (Anwender merkt es also nicht) und beim Restore gibt es den sogenannten Live-Restore. Dann startet die VM nicht erst nach der Wiederherstellung, sondern sofort und holt sich dann während des Restores nach und nach die Daten, die jeweils gerade angefordert werden. Ist natürlich langsamer als eine vollständig wiederhergestellte VM, aber dafür hat man eine geringere Downtime. Das kann je nach Usecase also ein guter Workaround für fehlende Snapshots sein. Ein anderer Workaround ist, dass man (geht im laufenden Betrieb) die VM auf einen snapshot-fähigen lokalen Speicher (z.B. ZFS direkt auf dem Knoten) migriert, dort den Snapshot macht und nach der Arbeit (Snapshots macht man ja z.B. vor Updates) wieder zurück auf den shared Storage migriert.
    • Migrationen: Hier ist mir nicht ganz klar, was das mit dem Backup zu tun hat, aber falls damit backup und restore in einer anderen ProxmoxVE-Instanz gemeint ist: Ja, das geht ohne Probleme. Live-Migration ist trotzdem schneller und praktischer ;)
  • Vsphere Vcenter: Hat man mehrere Cluster oder single-node-Server möchte man die ja envtl. alle über ein Management-Interface ala Vcenter verwalten. Da für ist der Proxmox Datacenter Manager in Entwicklung, aber aktuell noch im Alpha-Status. Kann man sich aber natürlich trotzdem schon angucken, damit sind dann auch Migrationen über Clustergrenzen hinaus in einer GUI möglich. Alternativ kann man schon jetzt das über eine CLI anstoßen. Innerhalb eines Clusters braucht man das nicht, man kann den gesamten Cluster über jeden Knoten (und dessen Webinterface) administrieren und darüber auch Migrationen vornehmen.
  • Migration Vmware->Proxmox: Gibt diverse Möglichkeiten, um die Downtime zu minimieren gibt es einen Trick: https://pve.proxmox.com/wiki/Migrate_to_Proxmox_VE#Attach_Disk_&_Move_Disk_(minimal_downtime)
 
  • Like
Reactions: UdoB
Noch ein Nachtrag: Je nach euren Budget würde ich auf jeden Fall Budget für Unterstützung durch einen offizielles Partner für die Migration dazu nehmen. Die kennen die best Practices nämlich aus eigener Erfahrung, gerade machen viele davon ja nichts anderes als Broadcom-Opfer zu migrieren:
https://www.proxmox.com/de/partner/finde-partner/entdecken

Selbst wenn man das nicht macht, dürfte es auf jeden Fall sinnvoll sein eine der offiziellen Schulungen bei einen Partner (kann ja der gleiche sein, muss aber natürlich nicht) zu besuchen: https://www.proxmox.com/de/services/training-kurse/training
 
  1. GPU-Passthrough / -Sharing
    • Können wir unter Proxmox VE 8 bzw. 9 unsere NVIDIA-GPUs sauber an VMs durchreichen?
    • Ist es möglich, eine physische Grafikkarte (NVIDIA A16) gleichzeitig an mehrere VMs zu geben (Stichwort vGPU/SR-IOV/MIG)?
    • Falls ja: Welche Voraussetzungen (Treiber, Lizenzen, Best Practices) sind zu beachten? Falls nein: Bestätigt bitte, dass es nur „exklusives“ PCIe-Passthrough pro VM ist.
Ihr habt ja schon NVidia Karten und vermutlich auch die Lizenzen im Einsatz unter vSphere.
Unter Proxmox ist das eigentlich genauso supportet von NVidia Seite. Dazu aber am besten die Links im Wiki: https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE einmal aufrufen, da hat NVidia eigentlich alles beschrieben. Soweit ich die Dokumente verstanden habe, ändert sich an der Lizensierung nichts.
  1. Eignung von Proxmox für Windows-lastige Umgebungen
    • Wir sind stark Windows-lastig (ca. 60 Windows-Server, 3 Linux). Macht Proxmox VE für so ein Setup aus eurer Erfahrung Sinn?
    • Worauf sollten wir speziell bei Windows-Servern als Gäste achten (Treiber, VirtIO, Backup/Snapshot-Strategien, Live-Migration, Lizenzierung)?
Die meisten meiner Kunden sind sehr Windows lastig. Da musst du die VirtIO Treiber und Agent von Hand installieren wie bei den VMware Tools.
Backup ist kein Thema, denn der PBS macht sehr schnell und super Effiziente Backups und wenn du Applikationen wie SQL, AD o.ä. sichern und granular restoren möchtest, brauchst du noch eine andere Software wie z.B. Veeam. Aber da musst du nur für die Paar VMs teure Lizenzen kaufen und der Rest wird dann vom PBS erledigt, der aus den Hypervisor bedient wird.
Live Migration geht natürlich und auch die MS Lizensierung ist identisch zu vSphere.
Netzwerk:

  • vmnic0: Broadcom Corporation NetXtreme BCM5720 Gigabit Ethernet — Treiber: ntg3 (4.1.14.0), bc 1.39, ncsi 1.5.28.0
  • vmnic1: Broadcom Corporation NetXtreme BCM5720 Gigabit Ethernet — Treiber: ntg3 (4.1.14.0), bc 1.39, ncsi 1.5.28.0
  • vmnic2: Broadcom NetXtreme E-Series Advanced Dual-port 25Gb SFP28 Ethernet OCP 3.0 Adapter — Treiber: bnxtnet (229.0.146.0), Firmware 218.0.219.13 /pkg 21.85.21.91
  • vmnic3: Broadcom NetXtreme E-Series Advanced Dual-port 25Gb SFP28 Ethernet OCP 3.0 Adapter — Treiber: bnxtnet (229.0.146.0), Firmware 218.0.219.13 /pkg 21.85.21.91
  • vmnic4: Broadcom BCM57412 NetXtreme-E 10Gb RDMA Ethernet Controller — Treiber: bnxtnet (229.0.146.0), Firmware 218.0.219.13 /pkg 21.85.21.91
  • vmnic5: Broadcom BCM57412 NetXtreme-E 10Gb RDMA Ethernet Controller — Treiber: bnxtnet (229.0.146.0), Firmware 218.0.219.13 /pkg 21.85.21.91
Alles Broadcom ist schon mal gut, das läuft sehr Stabil.
Storage:

  • Pure Storage FA‑X20R3
Wie ist denn die Pure angebunden? Bei FC muss man sich halt um Multipathing kümmern. Wenn Das ein FA mit Ethernet Ports ist, würde ich kein iSCSI nutzen sondern gleich auf NVMe over TCP wechseln, da musst du dich auch nicht um Multipathing kümmern, sondern bei NVMe ist die Anbindung der Namespaces direkt Multipath Aware und das Protokoll macht das alles für dich ohne manuelle Konfiguration. Schneller ist das natürlich auch noch.

Kontext / Zielbild​

  • Ziel ist eine stabile, supportbare Lösung. Falls GPU‑Sharing (mehrere VMs pro physischer GPU) unter Proxmox VE möglich ist: Welche Software-/Lizenzbausteine (z. B. NVIDIA vGPU Software) und Treiberstände setzt ihr produktiv ein?
Ich habe keine Erfahrung damit, aber ich habe Kunden die das seit längerem nutzen und habe noch keine Beschwerden gehört.
  • Falls nur klassisches PCIe‑Passthrough pro VM sinnvoll ist: Welche Best Practices (IOMMU/VT‑d, BIOS/UEFI‑Settings, Kernel‑Parameter, Blacklisting, Reset‑Support) habt ihr in produktiven Setups?
  • Für die Windows‑Dominanz: Welche Erfahrungen habt ihr mit Live‑Migration, Backups (z. B. Proxmox Backup Server) und Treiber/Agenten in großen Windows‑Landschaften?
Eigentlich ist da nix anders als bei vSphere. Bei einigen Sachen muss man etwas umdenken, da bei vSphere alles VMFS basiert und auf Dateien basiert und bei Proxmox viel direkt als Blockstorage genutzt wird, was Performance bringt, aber keine Dateien vorhanden sind, für das "leichte" Handling.
Wenn man sich an die Unterschiede gewöhnt hat, sind einige Features deutlich besser und manches noch nicht so weit wie das CRS noch lange nicht auf dem Stand von DRS ist. Aber für typische Mittelständische Umgebungen reicht das aus.
Man sollte laut MS kein ReFS in VMs nutzen, was trotzdem einige Leute tun. Bei ReFS kann der PBS kein File Restore durchführen, das geht derzeit nur mit NTFS. Aber die Steuerung der Backups und Restores direkt in der Hypervisor GUI lieben alle Admins. Da spart man richtig Zeit.
 
Ich möchte noch ein paar Punkte zu unserem Setup ergänzen, um die Fragen zu beantworten und das Bild zu vervollständigen:


  • NVIDIA vGPU-Lizenzen:
    Wir arbeiten mit Windows Terminalservern (Citrix, leider noch im Einsatz). Insgesamt haben wir 14 Terminalserver, davon benötigen 8–10 eine Grafikkarte.
    Die vGPU-Lizenzierung ist bereits vorhanden, da wir diese ja jetzt schon unter VMware nutzen.
  • Anwendungen unserer RDS-User:
    Überwiegend Office, dazu Teams. Einzelne Mitarbeiter greifen über die Terminalserver auf unsere Warenwirtschaft zu. Keine CAD- oder 3D-Workloads, eher typische Bürosoftware.
  • Zielgröße pro A16:
    Wir haben drei NVIDIA A16 Karten im Einsatz. Pro Karte sollen etwa 3 Terminalserver laufen, mit jeweils ca. 10 Mitarbeitern. Also rund 30 Mitarbeiter pro Karte.
  • Live Migration:
    Ist für uns nicht kritisch. Wir können die meisten Server problemlos herunterfahren und neu starten. Kritisch sind nur SQL, Terminalserver sowie Domain Controller – da planen wir eher feste Bindung an einen Host.
  • Storage (Pure Storage FA-X20R3):
    Anbindung aktuell via iSCSI. Unter VMware haben wir eine sehr gute Performance, unter Proxmox aber noch keine Messungen durchgeführt.
  • Clustergröße / HA:
    Geplant sind 3 Dell R750 Hosts. Zusätzlich haben wir noch ältere Nutanix-Hardware, die ich ggf. als Spielwiese oder Notfallsystem anbinden möchte.
  • BIOS / Firmware:
    VT-d, SR-IOV, IOMMU etc. sind aktiv – VMware läuft ja schon stabil. Eine konkrete Prüfung im BIOS habe ich aber noch nicht gemacht.
  • Proxmox Version:
    Wir würden direkt mit der neuesten Version starten (Proxmox VE 9.x). Macht ja Sinn bei einem Neuanfang.
  • Backupstrategie:
    Aktuell setzen wir auf Veeam, vor allem wegen der granularen Wiederherstellungsmöglichkeiten (AD, SQL usw.). Ein kompletter Umstieg auf Proxmox Backup Server ist momentan nicht geplant, aber vorstellbar für ein zusätzliches Szenario.
  • Kostenrechnung:
    VMware würde uns künftig rund 20.000 €/Jahr kosten. Proxmox dagegen ca. 3.200 €/Jahr.
    Wir würden die Enterprise Subscription mit 10 Tickets und 4 Stunden Support nehmen (ggf. 2 Stunden als Alternative).
    NVIDIA vGPU-Lizenzen sind bereits vorhanden.
    Migrations- und Schulungskosten decken wir mit unserem Systemhaus ab, das uns schon länger begleitet.
 
  • Like
Reactions: Johannes S
Klingt alles prima, aber wenn ihr Schulung und Migration mit eurem Systemhaus macht, warum beraten die denn dann nicht zu dem Thema?
Wenn das eines der Systemhäuser ist, die Proxmox nur mal machen wenn vSphere gerade nicht passt und noch keine Erfahrung mit Proxmox Clustern haben, dann bitte lieber ein erfahrenes Systemhaus suchen. Ich habe schon genug schlecht gebastelte Cluster ohne Corosync Redundanz, iSCSI ohne Multipath und andere schreckliche Dinge gesehen. So etwas braucht man nicht.
 
Klingt alles prima, aber wenn ihr Schulung und Migration mit eurem Systemhaus macht, warum beraten die denn dann nicht zu dem Thema?
Wenn das eines der Systemhäuser ist, die Proxmox nur mal machen wenn vSphere gerade nicht passt und noch keine Erfahrung mit Proxmox Clustern haben, dann bitte lieber ein erfahrenes Systemhaus suchen. Ich habe schon genug schlecht gebastelte Cluster ohne Corosync Redundanz, iSCSI ohne Multipath und andere schreckliche Dinge gesehen. So etwas braucht man nicht.

Doch, das tun sie. Aufgrund der kurzfristigen Situation – unsere Broadcom/VMware-Lizenzen laufen in sechs Wochen aus (erst 5.000 €/Jahr, letztes Jahr dann 11.000 €, und das aktuelle Angebot liegt schon bei 20.000 €!) – mussten wir sehr schnell reagieren. Parallel möchte ich mich selbst intensiver mit dem Thema auseinandersetzen, um vorbereitet zu sein und die richtigen Fragen stellen zu können.


Hier im Forum habe ich dazu super Support bekommen – vielen Dank dafür!
 
Aktuell setzen wir auf Veeam, vor allem wegen der granularen Wiederherstellungsmöglichkeiten (AD, SQL usw.). Ein kompletter Umstieg auf Proxmox Backup Server ist momentan nicht geplant, aber vorstellbar für ein zusätzliches Szenario
In dem Zusammenhang erwähnenswert: Wie auch ProxmoxVE muss man keine Subscription kaufen, um PBS zu nutzen. Wenn man also das Backup zunächst weiterhin mit der bisherigen Backuplösung vornimmt, kann man damit in aller Ruhe einen proof-of-Concept machen.
Bei Veeam ist zu bedenken, dass aktuell Veeam ProxmoxVE 9 noch nicht unterstützt (und generell von dem was man hier im Forum liest Veeams ProxmoxVE-Unterstützung noch deutlich hinter dem für Vmware hinterherhinkt. Um nicht missverstanden zu werden: Die Verantwortung dafür liegt bei Veeam, nicht bei PVE.). Veeam direkt als Agent in der VM installieren, geht aber trotzdem:
https://helpcenter.veeam.com/docs/vbproxmoxve/userguide/system_requirements.html
 
Last edited:
Ich installiere die VirtIO-Treiber auch immer zuerst. Direkt danach deinstalliere ich die VMware Tools, weil die echte Probleme machen können, wenn man sie erst auf der neuen Plattform entfernen möchte. Kommt aber immer drauf an, wie man den Umzug macht. ;-)
 
  • Like
Reactions: Johannes S
In dem Zusammenhang erwähnenswert: Wie auch ProxmoxVE muss man keine Subscription kaufen, um PBS zu nutzen. Wenn man also das Backup zunächst weiterhin mit der bisherigen Backuplösung vornimmt, kann man damit in aller Ruhe einen proof-of-Concept machen.
Bei Veeam ist zu bedenken, dass aktuell Veeam ProxmoxVE 9 noch nicht unterstützt (und generell von dem was man hier im Forum liest Veeams ProxmoxVE-Unterstützung noch deutlich hinter dem für Vmware hinterherhinkt. Um nicht missverstanden zu werden: Die Verantwortung dafür liegt bei Veeam, nicht bei PVE.). Veeam direkt als Agent in der VM installieren, geht aber trotzdem:
https://helpcenter.veeam.com/docs/vbproxmoxve/userguide/system_requirements.html
Sind ja noch rund sechs Wochen – andernfalls starten wir einfach mit der Version 8.4.x.
Danke auf jeden Fall für den Hinweis!
Privat nutze ich bereits den PBS und bin damit sehr zufrieden.
Für den geschäftlichen Bereich könnte Veeam allerdings weiterhin sinnvoll sein, insbesondere wegen der Wiederherstellung von DC Elementen und SQL etc.
 
  • Like
Reactions: Johannes S
Für den geschäftlichen Bereich könnte Veeam allerdings weiterhin sinnvoll sein, insbesondere wegen der Wiederherstellung von DC Elementen und SQL etc.
Wobei Veaam, soweit ich weiß, unter PVE auch noch keine application-awaren Backups kann. Aber man kann ja den Agenten in der VM installieren.
 
Sind ja noch rund sechs Wochen – andernfalls starten wir einfach mit der Version 8.4.x.
Danke auf jeden Fall für den Hinweis!
Privat nutze ich bereits den PBS und bin damit sehr zufrieden.
Für den geschäftlichen Bereich könnte Veeam allerdings weiterhin sinnvoll sein, insbesondere wegen der Wiederherstellung von DC Elementen und SQL etc.
Weil Veeam das Application Aware derzeit bei PVE nicht kann, kommt bei mir der PBS für alle VMs zum Einsatz um auch ein schnelles DR zu gewährleisten. Die SQL und Co. bekommen einen Veeam Agent verpasst und bekommen damit ein zweites Application Backup.
Man muss dann nur noch ganz selten auf den Backupserver und spart viel Geld, weil oft eine kleine 5 Instanzen Lizenz von Veeam reicht.
 
  • Like
Reactions: Johannes S