Welche Proxmox und VM Installation/Konfiguration?

Mathias_1972

New Member
Apr 7, 2025
11
2
3
Ratingen
Ich entschuldige mich schon Mal im Voraus:
ich bin nicht Forumserfahren, habe mir meine Linux (Univention, Debian, Ubuntu) Erfahrung selber angeeignet, und bin gerade auf dem Weg selbiges mit Proxmox zu tun.

Ich möchte in meinem kleinen Betrieb (ca. 10 Mitarbeiter) gerne folgendes Szenario erstellen:

Physikalischer Server 1:
  • Univention DC Server (er wird den alten phys. DC Server ablösen) als VM in PVE.
Grund: mit der Realisierung als VM habe ich leichtere Backup/Snapshot und Wartungsmöglichkeiten.
Wenn ich mich richtig eingelesen habe, ergibt das Sinn, oder?
Weitere VMs sind auf diesem Server nicht geplant.

Physikalischer Server 2:
  • Univention Backup DC Server (er wird den alten phys. Backup DC Server ablösen) als VM in PVE.
    • Fileserver, Backups, Datengrab
  • Windows 11 (als Remote Workstation) als VM in PVE.
Grund: siehe Server 1 und weniger phys. PCs die dauerhaft laufen müssen.
Weitere VMs sind auf diesem Server auch nicht geplant.


Die phys. PCs sollten leistungstechnisch für die Zwecke ausreichend sein:
Server 1: 64 GB RAM, 2 x 4 TB SSD (Server-SSDs)
Server2: 64 GB RAM, 2 x 2 TB SSD (nicht speziell Server aber hohe MTBF & TBW), 2 x 20 TB HDD (Server)

Jetzt habe ich schon einiges ausprobiert und gelesen und komme zu folgendem Problem:
Ich habe beide Proxmox Server mit ZFS Mirror auf die SSDs mit den im Installationsprozess vorgeschlagenen Einstellungen installiert. Beide laufen, soweit ich das beurteilen kann, stabil.
Allerdings habe ich beim Einrichten und Installieren der VMs festgestellt, dass die VMs als RAW im rpool des Proxmox liegen (local-zfs). Somit lassen sich, nach meinen profanen Kenntnissen, keine Snapshots der VMs machen, da das nur mit cqow2 möglich ist. Da sich die VMs aber nicht als "Datei" im klassischen Filesystem finden lassen sondern als Container im ZFS Pool ist die Umwandlung in qcow2 sehr kompliziert (hab's dank diverser Forenbeiträge) aber schonmal geschafft. Dennoch konnte ich anschließend keine Snapshots der VMs machen.

Die Frage ist, ob ich Proxmox in einer anderen "Grundkonfiguration" aufsetzen sollte, bzw. welche Konfiguration für die beiden Proxmoxserver (oder Server 1 sogar ohne Proxmox und Univention direkt installiert) in Euren Augen Sinn ergeben.

Ich bedanke mich jetzt schon mal recht herzlich für Eure Hilfe, und hoffe, das dieser Beitrag nicht zu lang und trotzdem Verständlich ist.
 
Somit lassen sich, nach meinen profanen Kenntnissen, keine Snapshots der VMs machen.
Willkommen im Forum

Snapshots und Backups kann man über die GUI machen - auch automatisiert (zeitgesteuert).
Dann liegen die Backups als *.vma.zst vor.

Den 2ten physikalischen Server würde ich als Proxmox-Backup-Server einreichten.

LG Einsunter
 
Allerdings habe ich beim Einrichten und Installieren der VMs festgestellt, dass die VMs als RAW im rpool des Proxmox liegen (local-zfs). Somit lassen sich, nach meinen profanen Kenntnissen, keine Snapshots der VMs machen, da das nur mit cqow2 möglich ist.

"local-zfs" ist in einer Standardinstallation ein "zfspool". Virtuelle Festplatten werden dort automatisch als "zvol" erzeugt, das ist ein Block-Device - kein Dateispeicher, in dem man xyz.qcow2 abspeichern könnte. (Vergleiche: ZFS-"Data-Set" für Dateien.)

Und das ist gut so! ZFS kann mit Snapshots sehr gut umgehen :-)

Um eine VM auf beiden Systemen starten zu können, richtet man eine Replikation ein. Dann kann man sowohl manuell als auch automatisch (per High-Availability) migrieren (lassen).

Dennoch konnte ich anschließend keine Snapshots der VMs machen.

Was kommt denn beim Versuch, einen Snapshot zu erstellen, für eine Fehlermeldung?
 
"local-zfs" ist in einer Standardinstallation ein "zfspool". Virtuelle Festplatten werden dort automatisch als "zvol" erzeugt, das ist ein Block-Device - kein Dateispeicher, in dem man xyz.qcow2 abspeichern könnte. (Vergleiche: ZFS-"Data-Set" für Dateien.)

Und das ist gut so! ZFS kann mit Snapshots sehr gut umgehen :-)

Um eine VM auf beiden Systemen starten zu können, richtet man eine Replikation ein. Dann kann man sowohl manuell als auch automatisch (per High-Availability) migrieren (lassen).



Was kommt denn beim Versuch, einen Snapshot zu erstellen, für eine Fehlermeldung?
Vielen Dank für Dein Hilfe!

Ja, das mit dem Block-Device hatte ich schon gelesen. Und das diese Block-Devices nicht wie ein klassisches "Filesystem" zu handeln sind, verstehe ich. Ich gebe zu, das Thema Block Device ist für mich noch neu und sehr einarbeitungs bedürftig.

Mit dem Thema Replikation müsste ich mich noch beschäftigen; ich weiß aber nicht, ob ich damit nicht über das Ziel hinaus schieße.

Aktuell kann ich keine Snapshots erstellen, da der Taster "Take Snapshot", unter Create: VMXXX Snapshot, ausgegraut ist.
 
Last edited:
Willkommen im Forum

Snapshots und Backups kann man über die GUI machen - auch automatisiert (zeitgesteuert).
Dann liegen die Backups als *.vma.zst vor.

Den 2ten physikalischen Server würde ich als Proxmox-Backup-Server einreichten.

LG Einsunter
Danke für Deine Hilfe!

Backups sind auch möglich, aber Snapshots leider nicht; der Taster "Take Snaphot" unter Create: VMXXX Snapshot ist ausgegraut.

Da der Univention Backup DC gleichzeitig als Fileserver dient, dachte ich, das reicht, um auch die PC-Last etwas aufzuteilen.
Oder meinst Du, das der PBS als VM auf dem zweiten Server laufen soll? Mit PBS habe ich noch nicht gearbeitet.
 
Last edited:
Aktuell kann ich keine Snapshots erstellen, da der Taster "Take Snapshot", unter Create: VMXXX Snapshot, ausgegraut ist.

Wo ist das genau?

Ich verwende meist die "Server View", links oben im Drop-Down Menu. Selektiere links im Baum eine VM, dann: vertikales Menu "Snapshots" --> Button "Snapshot erstellen" / "Take Snapshot". Dort?

In einer root-Shell auf dem Host: wie sieht die Konfiguration dieser Beispiel-VM aus? Bitte poste die Ausgabe von qm config <vmid>.

Grundlage ist der definierte Storage. Poste die Ausgabe von cat /etc/pve/storage.cfg.


PS: für solche Text-Konsolenausgaben bitte immer [code]...[/code]-Tags verwenden - manuell im Editierfeld oder oben in der Symbolleiste "</>" anklicken.
 
Wo ist das genau?

Ich verwende meist die "Server View", links oben im Drop-Down Menu. Selektiere links im Baum eine VM, dann: vertikales Menu "Snapshots" --> Button "Snapshot erstellen" / "Take Snapshot". Dort?

Ja, genau dort.

In einer root-Shell auf dem Host: wie sieht die Konfiguration dieser Beispiel-VM aus? Bitte poste die Ausgabe von qm config <vmid>.

Code:
balloon: 32768
boot: order=scsi0
cores: 12
cpu: host
machine: pc,viommu=virtio
memory: 61440
meta: creation-qemu=9.0.2,ctime=1743503399
name: UCS-DC
net0: virtio=BC:24:11:70:B4:AF,bridge=vmbr0,firewall=1
numa: 0
onboot: 1
ostype: l26
scsi0: local-zfs:vm-101-disk-0,iothread=1,size=20000G
scsihw: virtio-scsi-single
smbios1: uuid=e14a4a18-296c-4f99-952d-4a84d55b7bd4
sockets: 1
vmgenid: 3b5abbfb-c04f-48c9-ba43-e6cc7028b4c1

Grundlage ist der definierte Storage. Poste die Ausgabe von cat /etc/pve/storage.cfg.

Code:
dir: local
        path /var/lib/vz
        content vztmpl,iso,backup

zfspool: local-zfs
        pool rpool/data
        content images,rootdir
        sparse 1

zfspool: daten01
        pool daten01
        content rootdir,images
        mountpoint /daten01
        nodes pve

cifs: SMB01
        path /mnt/pve/SMB01
        server 192.168.5.203
        share Sicherungen
        content images,backup
        prune-backups keep-all=1
        username XXXXX

Danke für den Hinweis mit den Einklammerungen.
 
  • Like
Reactions: UdoB
Tja, ich sehe nichts, was "kein Snapshot möglich" begründen würde. (Was aber eben nichts heißen muss...)

Deine VM ist allerdings größer als das, was ich gewohnt bin. Sowohl 60 GiB Ram als auch die 20 TB als virtuelle Festplatte sind außerhalb meiner kleinen Welt.

ZFS kann zwar mit "unendlich" großen Volumen umgehen, aber vielleicht gibt es in irgendeiner verwendeten Library ein kleineres Limit.

Kannst du mal eine wesentlich kleinere VM (mit wenigen GB Ram + Disk) anlegen und das Verhalten hinsichtlich Snapshots vergleichen?


Vielleicht fällt einem anderen Mitleser etwas dazu ein...
 
Kannst du mal eine wesentlich kleinere VM (mit wenigen GB Ram + Disk) anlegen und das Verhalten hinsichtlich Snapshots vergleichen?

Code:
balloon: 4096
boot: order=scsi0
cores: 4
cpu: x86-64-v2-AES
machine: pc,viommu=virtio
memory: 16384
meta: creation-qemu=9.0.2,ctime=1743032587
name: UCS-BackupDC
net0: virtio=BC:24:11:44:4A:E8,bridge=vmbr0,firewall=1
numa: 0
onboot: 1
ostype: l26
scsi0: local-zfs:vm-200-disk-0,iothread=1,size=250G
scsi1: daten01:vm-200-disk-0,iothread=1,size=10000G
scsihw: virtio-scsi-single
smbios1: uuid=a78b212e-cc03-426e-8b0a-17fd5ebceaad
sockets: 1
vmgenid: bb6332d1-85da-406c-a503-0772a1f06e4a

oder

Code:
agent: 1
balloon: 4096
bios: ovmf
boot: order=ide2;scsi0
cores: 4
cpu: host
efidisk0: local-zfs:vm-100-disk-0,efitype=4m,pre-enrolled-keys=1,size=1M
ide2: none,media=cdrom
machine: pc-q35-9.0
memory: 16384
meta: creation-qemu=9.0.2,ctime=1743030132
name: Windows11
net0: virtio=BC:24:11:18:12:B9,bridge=vmbr0,firewall=1
numa: 0
onboot: 1
ostype: win11
scsi0: local-zfs:vm-100-disk-1,cache=writeback,discard=on,iothread=1,size=500G,ssd=1
scsihw: virtio-scsi-single
smbios1: uuid=770d3565-5b6b-4810-8d1c-94d99245e100
sockets: 1
tpmstate0: local-zfs:vm-100-disk-2,size=4M,version=v2.0
vmgenid: 48a27bad-6399-4438-ab24-041f6cb226b0

Gleiches Problem.
 
Last edited:
Gleiches Problem.
Merkwürdig.

Ich habe deine Config kopiert (bis auf beide Disks, die haben ja zunächst einen falschen Namen für mein System) und eine Disk auf local-zfs hinzugefügt. Ich kann damit Snapshots anlegen.

Wie sieht denn der Pool aus? zpool status && zpool list -v bitte. Nicht, dass ich da eine Überraschung erwarte...
 
zpool status && zpool list -v
Maschine 1 (pve)
Code:
  pool: daten01
 state: ONLINE
config:

        NAME                                      STATE     READ WRITE CKSUM
        daten01                                   ONLINE       0     0     0
          mirror-0                                ONLINE       0     0     0
            ata-TOSHIBA_MG10ACA20TE_Y4D0A0A0F4MJ  ONLINE       0     0     0
            ata-TOSHIBA_MG10ACA20TE_Y4D0A0A1F4MJ  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
config:

        NAME                                                 STATE     READ WRITE CKSUM
        rpool                                                ONLINE       0     0     0
          mirror-0                                           ONLINE       0     0     0
            nvme-eui.00000000000000007c35485250977dc3-part3  ONLINE       0     0     0
            nvme-eui.00000000000000007c35485250977dc1-part3  ONLINE       0     0     0

errors: No known data errors
NAME                                                  SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
daten01                                              18.2T   114M  18.2T        -         -     0%     0%  1.00x    ONLINE  -
  mirror-0                                           18.2T   114M  18.2T        -         -     0%  0.00%      -    ONLINE
    ata-TOSHIBA_MG10ACA20TE_Y4D0A0A0F4MJ             18.2T      -      -        -         -      -      -      -    ONLINE
    ata-TOSHIBA_MG10ACA20TE_Y4D0A0A1F4MJ             18.2T      -      -        -         -      -      -      -    ONLINE
rpool                                                1.81T   260G  1.56T        -         -     1%    14%  1.00x    ONLINE  -
  mirror-0                                           1.81T   260G  1.56T        -         -     1%  14.0%      -    ONLINE
    nvme-eui.00000000000000007c35485250977dc3-part3  1.82T      -      -        -         -      -      -      -    ONLINE
    nvme-eui.00000000000000007c35485250977dc1-part3  1.82T      -      -        -         -      -      -      -    ONLINE

Maschine 2 (pve01)
Code:
  pool: rpool
 state: ONLINE
config:

        NAME                                              STATE     READ WRITE CKSUM
        rpool                                             ONLINE       0     0     0
          mirror-0                                        ONLINE       0     0     0
            scsi-236363730586007340025384e00000001-part3  ONLINE       0     0     0
            scsi-236363730586007670025384e00000001-part3  ONLINE       0     0     0

errors: No known data errors
NAME                                               SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
rpool                                             3.48T  47.3G  3.44T        -         -     0%     1%  1.00x    ONLINE  -
  mirror-0                                        3.48T  47.3G  3.44T        -         -     0%  1.32%      -    ONLINE
    scsi-236363730586007340025384e00000001-part3  3.49T      -      -        -         -      -      -      -    ONLINE
    scsi-236363730586007670025384e00000001-part3  3.49T      -      -        -         -      -      -      -    ONLINE
 
Bin etwas verwundert über die "meta: creation-qemu=9..." Zeilen pro VM bei Storage in local-zfs, sind das qemu images in zvols und dann "pve automatisch" das qemu eigene snapshotting nicht geht, weil das zvol dafür nicht größer wird ... ?? PS: Sorry, wir haben alles auf nfs, habe insofern kein Vergleich zur Hand.
 
  • Like
Reactions: UdoB
Danke. Tja, das sieht alles normal aus. Keine neuen Erkenntnisse...


Eher am Rande das hier:
scsi0: local-zfs:vm-101-disk-0,iothread=1,size=20000G
ist eine 20 Terabyte große virtuelle Festplatte auf dem rpool. Du wolltest eventuell 20 Gigabyte konfigurieren? Da local-zfs "sparse 1" aktiviert hat, funktionieren so große Angaben dennoch - bis der reale Platz ausgeht...
 
Haha ohje, qemu != qcow(2) ..., das erinnert mich an Otto, Großhirn an Kleinhirn, spiel mir einen Streich ... :)
 
ist eine 20 Terabyte große virtuelle Festplatte auf dem rpool. Du wolltest eventuell 20 Gigabyte konfigurieren? Da local-zfs "sparse 1" aktiviert hat, funktionieren so große Angaben dennoch - bis der reale Platz ausgeht...
Ja, da habe ich einen Fehler gemacht. Sollten eigentlich 2TB werden. Leider kann ich das nicht korrigieren, da ich in diese VM ein Univention auf LVM installiert habe. LVM kleiner zu machen ist mit großen Schwierigkeiten verbunden. Ich werde diese VM, wenn ich weiß welche Konfiguration ich mache, nochmal neu aufsetzen.

Haha ohje, qemu != qcow(2) ..., das erinnert mich an Otto, Großhirn an Kleinhirn, spiel mir einen Streich ... :)
Ist da der Bockmist versteckt, den ich gemacht habe? ;)
 
PS: die andere VM hat auch eine 10 TB Platte, die dann vielleicht auch nur 1 TB groß werden sollte/wollte ... ?!
 
PS: die andere VM hat auch eine 10 TB Platte, die dann vielleicht auch nur 1 TB groß werden sollte/wollte ... ?!
Haha, ja könnt man meinen...:).
Nein, da hatte ich den Fehler aus der ersten VM schon gemerkt. Die 10TB sollen als File- und Backupplatte in der VM dienen. Die 10 TB sind ja auch phys. vorhanden und auf HDD.
 
Ist da der Bockmist versteckt, den ich gemacht habe?
Nicht deiner, das war mein Lese- und Gedankenfehler, hab nur das "q mit 4 Buchstaben" gelesen und den Rest hat Hirn dazu "(un)passend" gedichtet.
Trotzdem ist mir persönlich noch nie eine Zeile mit "meta: ..." untergekommen, an die ich mich erinnern könnte ...