Und noch eine Ergänzung: Bei MS SQL Servern unterstützt Veeam auch das Backup von Clustern, bei anderen Datenbankengines (Postgres, MySQL/mariadb) nicht. Das wäre für mich ein Grund auf Veeams application-aware Backups zu Gunsten von...
Hallo @Ahtse,
die Kernfrage ist schon gut beantwortet — für die VM-Disks auf eurem shared LVM via FC braucht ihr keine Snapshot-Funktionalität, raw reicht. Veeam nutzt für die Sicherung den QEMU Dirty Bitmap Mechanismus (CBT), keine...
Hallo @joulethief,
Das Problem ist, dass du dasselbe XFS-Dateisystem gleichzeitig von zwei unabhängigen Systemen aus mountest – einmal vom Proxmox-Host (und per virtiofs an Jellyfin weitergereicht) und einmal von der NFS-Server-VM über das rohe...
@TErxleben,
Ein extractvma-Subcommand existiert nicht, aber du kannst dir den Workflow mit dem vma-Tool (auf jedem PVE-Host vorhanden) bauen:
#!/bin/bash
REPO="user@pbs-host:datastore"
VMID=100
DEST="/mnt/usb"
TMP=$(mktemp -d)
# Latest...
Pa
Das passiert bei CTs leider üblicherweise nicht. Zumindestens nicht vor Beendigung.
Bitte nicht. Snapshots ersetzen ein richtiges Backup genau so wenig wie RAID. Ich empfehle immer beides. Schau dir auch mal cv4pve-autosnap an
Schau auch mal...
Stimmt, danke für die Korrektur — LVM-Thin ist nur lokal nutzbar und damit für einen Cluster mit Shared Storage keine Option. Für lokalen Speicher ohne HW-RAID ist ZFS tatsächlich die bessere Wahl, allein schon wegen Checksummen und...
Das Disk-Image, das du per proxmox-backup-client restore bekommst, ist inhaltlich identisch mit dem Raw-Image innerhalb einer VMA — gleiche Rohdaten, nur ohne den VMA-Container drumherum.
Der Unterschied liegt im Restore-Weg zurück nach PVE...
Ja, genau — den Scrub komplett durchlaufen lassen. Der Controller verarbeitet die UNMAP-Befehle erst beim Bereinigungslauf, und solange der läuft (oder abgebrochen wird), staut sich das. Die bisherigen ~500 GB via fstrim sind beim Controller...
@garfield2008 ,
Gut, damit ist die Ursache bestätigt.
Was sich geändert hat: Vermutlich haben bei der Neuinstallation/dem Update die OVS-Bridges oder Bonds die MTU 9000 von den NICs übernommen (OVS negotiiert die MTU automatisch anhand der...
Genau das. Der `restore`-Befehl schreibt dir das Image raus, und du packst einfach zstd dahinter:
proxmox-backup-client restore vm/100/2026-01-27T12:00:00Z drive-scsi0.img.fidx /mnt/usb/vm-100-disk-0.raw --repository user@pbs-host:datastore...
@garfield2008,
Der tcpdump verrät es: Der TCP-Handshake klappt einwandfrei (SYN → SYN-ACK → ACK), aber danach kommt keine Daten-Übertragung zustande — der Server schickt nach 5 Sekunden ein FIN.
Das ist ein klassisches MTU-Problem. Schau dir...
Hallo @garfield2008,
Zwei Sachen zum Eingrenzen:
1. Kann die VM den PVE-Node erreichen, auf dem sie NICHT läuft?
Also wenn die VM auf Node1 liegt: kommt sie per SSH/HTTPS auf Node2 und Node3? Das würde klären, ob es ein Hairpin-Problem ist...
@TErxleben,
PBS-Backups als Raw-Images extrahieren geht direkt mit dem proxmox-backup-client — ohne VM-Restore:
# Snapshots auflisten
proxmox-backup-client list --repository user@pbs-host:datastore
# Enthaltene Archives eines Snapshots...
Die Allocated Pages bestätigen das Bild: 1.673.851 Pages × 4 MiB (Standard-Pagesize MSA 2060) = ~6,39 TiB — das deckt sich mit den ~7,0 TB auf Pool-Ebene.
OCFS2 meldet 3,8T belegt → ca. 2,5 TiB sind stale-Allocations, die vom Filesystem...
@sgw,
gut, dass show snapshots nichts zeigt — dann liegt da zumindest kein alter Snapshot-Overhead rum. Die 302 GB von fstrim sind rein die bisher nicht zurückgemeldeten Blöcke.
Wenn die Datenträgergruppenbereinigung durch ist, würde ich...
Guter Punkt — bei 500+ VMs und Ceph ist 100G tatsächlich die richtige Empfehlung. Die Preisdifferenz zu 25G ist mittlerweile überschaubar und man spart sich das spätere Aufrüsten.
@Stefan123 also bei der Netzwerkplanung direkt 100G für das...
Die 302 GB durch fstrim sind ein guter Anfang. Dass die MSA-GUI nicht sofort aktualisiert: Ja, die laufende Datenträgergruppenbereinigung kann das verzögern. Der Controller muss die UNMAP-Befehle erst verarbeiten — nach Abschluss der Bereinigung...
Hallo @sgw,
die Diskrepanz zwischen MSA-Belegung (92%) und OCFS2-Sicht (55%) ist ein klassisches Thin-Provisioning-Problem. OCFS2 gibt gelöschte Blöcke nicht automatisch an den MSA zurück.
1. TRIM/Discard — vermutlich die Hauptursache:
#...