Passt exakt zu dem, was ich vermutet hatte. Hier die Aufschlüsselung für vm-114-disk-1:
USEDDS (tatsächliche Daten): 714G
USEDREFRESERV (reservierter, aber unbeschriebener Platz): 893G
REFRESERV (Volsize-Garantie): 894G
USED gesamt: 714G + 893G...
Die Snapshots sind nicht das Problem — die Differenz zwischen USED (1.57T) und REFER (714G) kommt von der refreservation. ZFS setzt bei Zvols standardmäßig eine Refreservation in Höhe der Volsize, um dem Volume Platz zu garantieren.
Prüf mal...
@nhh,
nein, unterschiedliche Storage-Namen sind hier keine Option — die Replikation erfordert den gleichen Storage-Namen auf beiden Nodes, sonst funktioniert sie nicht.
Die Anzeige im Datacenter-Summary ist einfach so. Schau dir den...
Hallo @nhh,
zpool list zeigt die Wahrheit: 33% belegt, 2.41T frei. Es gibt kein tatsächliches Platzproblem.
Was du in der UI siehst, ist ein bekanntes Anzeigeverhalten: Proxmox summiert in der Summary-Ansicht den belegten Speicher beider Nodes...
Hallo @legolas,
für einen schlanken LXC mit Browser hast du mehrere Optionen:
1. Minimaler Ansatz: Xfce + Firefox
Debian/Ubuntu-Template nehmen, dann:
apt update && apt install -y xfce4 xfce4-terminal firefox-esr
2. Zugriff auf den Desktop...
Hallo @nitrosont,
poste bitte mal:
Deine AdGuard Home Version (AdGuardHome --version im Container)
Die Container-Config (cat /etc/pve/lxc/<CTID>.conf)
Ob Safe Browsing und/oder Kindersicherung in AdGuard aktiviert sind
Wenn es das nächste Mal...
Hallo @Raoul1963,
reguläre Updates über apt dist-upgrade könnt ihr bedenkenlos machen — der gepinnte Kernel wird dadurch nicht verändert. Es wird zwar ein neuer Kernel installiert, aber durch den Pin bootet das System weiterhin mit eurem...
(Ceph RBD nutzt das RAW-Format, die "Magie" für Snapshots und Thin provisioning passiert im Storage Layer und nicht auf der Dateiebene. Das macht es performanter. (nur als kurze Ergänzung ))
Ähm 100G-Switche mit Peitschen-/ Breakoutkabeln sind...
@maze-m, das -f ist hier sicher — genau dafür ist es gedacht. ZFS meckert nur, weil es erkennt, dass die Zielplatte bereits im Pool ist. Da du dieselbe physische Platte durch sich selbst ersetzt (nur mit anderem Pfad), passiert den Daten nichts...
Und noch eine Ergänzung: Bei MS SQL Servern unterstützt Veeam auch das Backup von Clustern, bei anderen Datenbankengines (Postgres, MySQL/mariadb) nicht. Das wäre für mich ein Grund auf Veeams application-aware Backups zu Gunsten von...
Hallo @Ahtse,
die Kernfrage ist schon gut beantwortet — für die VM-Disks auf eurem shared LVM via FC braucht ihr keine Snapshot-Funktionalität, raw reicht. Veeam nutzt für die Sicherung den QEMU Dirty Bitmap Mechanismus (CBT), keine...
Hallo @joulethief,
Das Problem ist, dass du dasselbe XFS-Dateisystem gleichzeitig von zwei unabhängigen Systemen aus mountest – einmal vom Proxmox-Host (und per virtiofs an Jellyfin weitergereicht) und einmal von der NFS-Server-VM über das rohe...
@TErxleben,
Ein extractvma-Subcommand existiert nicht, aber du kannst dir den Workflow mit dem vma-Tool (auf jedem PVE-Host vorhanden) bauen:
#!/bin/bash
REPO="user@pbs-host:datastore"
VMID=100
DEST="/mnt/usb"
TMP=$(mktemp -d)
# Latest...
Das passiert bei CTs leider üblicherweise nicht. Zumindestens nicht vor Beendigung.
Bitte nicht. Snapshots ersetzen ein richtiges Backup genau so wenig wie RAID. Ich empfehle immer beides. Schau dir auch mal cv4pve-autosnap an
Schau auch mal den...
Stimmt, danke für die Korrektur — LVM-Thin ist nur lokal nutzbar und damit für einen Cluster mit Shared Storage keine Option. Für lokalen Speicher ohne HW-RAID ist ZFS tatsächlich die bessere Wahl, allein schon wegen Checksummen und...
Das Disk-Image, das du per proxmox-backup-client restore bekommst, ist inhaltlich identisch mit dem Raw-Image innerhalb einer VMA — gleiche Rohdaten, nur ohne den VMA-Container drumherum.
Der Unterschied liegt im Restore-Weg zurück nach PVE...
Ja, genau — den Scrub komplett durchlaufen lassen. Der Controller verarbeitet die UNMAP-Befehle erst beim Bereinigungslauf, und solange der läuft (oder abgebrochen wird), staut sich das. Die bisherigen ~500 GB via fstrim sind beim Controller...
@garfield2008 ,
Gut, damit ist die Ursache bestätigt.
Was sich geändert hat: Vermutlich haben bei der Neuinstallation/dem Update die OVS-Bridges oder Bonds die MTU 9000 von den NICs übernommen (OVS negotiiert die MTU automatisch anhand der...
Genau das. Der `restore`-Befehl schreibt dir das Image raus, und du packst einfach zstd dahinter:
proxmox-backup-client restore vm/100/2026-01-27T12:00:00Z drive-scsi0.img.fidx /mnt/usb/vm-100-disk-0.raw --repository user@pbs-host:datastore...