Hallo @nitrosont,
poste bitte mal:
Deine AdGuard Home Version (AdGuardHome --version im Container)
Die Container-Config (cat /etc/pve/lxc/<CTID>.conf)
Ob Safe Browsing und/oder Kindersicherung in AdGuard aktiviert sind
Wenn es das nächste Mal...
Hallo @Raoul1963,
reguläre Updates über apt dist-upgrade könnt ihr bedenkenlos machen — der gepinnte Kernel wird dadurch nicht verändert. Es wird zwar ein neuer Kernel installiert, aber durch den Pin bootet das System weiterhin mit eurem...
(Ceph RBD nutzt das RAW-Format, die "Magie" für Snapshots und Thin provisioning passiert im Storage Layer und nicht auf der Dateiebene. Das macht es performanter. (nur als kurze Ergänzung ))
Ähm 100G-Switche mit Peitschen-/ Breakoutkabeln sind...
@maze-m, das -f ist hier sicher — genau dafür ist es gedacht. ZFS meckert nur, weil es erkennt, dass die Zielplatte bereits im Pool ist. Da du dieselbe physische Platte durch sich selbst ersetzt (nur mit anderem Pfad), passiert den Daten nichts...
Und noch eine Ergänzung: Bei MS SQL Servern unterstützt Veeam auch das Backup von Clustern, bei anderen Datenbankengines (Postgres, MySQL/mariadb) nicht. Das wäre für mich ein Grund auf Veeams application-aware Backups zu Gunsten von...
Hallo @Ahtse,
die Kernfrage ist schon gut beantwortet — für die VM-Disks auf eurem shared LVM via FC braucht ihr keine Snapshot-Funktionalität, raw reicht. Veeam nutzt für die Sicherung den QEMU Dirty Bitmap Mechanismus (CBT), keine...
Hallo @joulethief,
Das Problem ist, dass du dasselbe XFS-Dateisystem gleichzeitig von zwei unabhängigen Systemen aus mountest – einmal vom Proxmox-Host (und per virtiofs an Jellyfin weitergereicht) und einmal von der NFS-Server-VM über das rohe...
@TErxleben,
Ein extractvma-Subcommand existiert nicht, aber du kannst dir den Workflow mit dem vma-Tool (auf jedem PVE-Host vorhanden) bauen:
#!/bin/bash
REPO="user@pbs-host:datastore"
VMID=100
DEST="/mnt/usb"
TMP=$(mktemp -d)
# Latest...
Pa
Das passiert bei CTs leider üblicherweise nicht. Zumindestens nicht vor Beendigung.
Bitte nicht. Snapshots ersetzen ein richtiges Backup genau so wenig wie RAID. Ich empfehle immer beides. Schau dir auch mal cv4pve-autosnap an
Schau auch mal...
Stimmt, danke für die Korrektur — LVM-Thin ist nur lokal nutzbar und damit für einen Cluster mit Shared Storage keine Option. Für lokalen Speicher ohne HW-RAID ist ZFS tatsächlich die bessere Wahl, allein schon wegen Checksummen und...
Das Disk-Image, das du per proxmox-backup-client restore bekommst, ist inhaltlich identisch mit dem Raw-Image innerhalb einer VMA — gleiche Rohdaten, nur ohne den VMA-Container drumherum.
Der Unterschied liegt im Restore-Weg zurück nach PVE...
Ja, genau — den Scrub komplett durchlaufen lassen. Der Controller verarbeitet die UNMAP-Befehle erst beim Bereinigungslauf, und solange der läuft (oder abgebrochen wird), staut sich das. Die bisherigen ~500 GB via fstrim sind beim Controller...
@garfield2008 ,
Gut, damit ist die Ursache bestätigt.
Was sich geändert hat: Vermutlich haben bei der Neuinstallation/dem Update die OVS-Bridges oder Bonds die MTU 9000 von den NICs übernommen (OVS negotiiert die MTU automatisch anhand der...
Genau das. Der `restore`-Befehl schreibt dir das Image raus, und du packst einfach zstd dahinter:
proxmox-backup-client restore vm/100/2026-01-27T12:00:00Z drive-scsi0.img.fidx /mnt/usb/vm-100-disk-0.raw --repository user@pbs-host:datastore...
@garfield2008,
Der tcpdump verrät es: Der TCP-Handshake klappt einwandfrei (SYN → SYN-ACK → ACK), aber danach kommt keine Daten-Übertragung zustande — der Server schickt nach 5 Sekunden ein FIN.
Das ist ein klassisches MTU-Problem. Schau dir...
Hallo @garfield2008,
Zwei Sachen zum Eingrenzen:
1. Kann die VM den PVE-Node erreichen, auf dem sie NICHT läuft?
Also wenn die VM auf Node1 liegt: kommt sie per SSH/HTTPS auf Node2 und Node3? Das würde klären, ob es ein Hairpin-Problem ist...
@TErxleben,
PBS-Backups als Raw-Images extrahieren geht direkt mit dem proxmox-backup-client — ohne VM-Restore:
# Snapshots auflisten
proxmox-backup-client list --repository user@pbs-host:datastore
# Enthaltene Archives eines Snapshots...
Die Allocated Pages bestätigen das Bild: 1.673.851 Pages × 4 MiB (Standard-Pagesize MSA 2060) = ~6,39 TiB — das deckt sich mit den ~7,0 TB auf Pool-Ebene.
OCFS2 meldet 3,8T belegt → ca. 2,5 TiB sind stale-Allocations, die vom Filesystem...
@sgw,
gut, dass show snapshots nichts zeigt — dann liegt da zumindest kein alter Snapshot-Overhead rum. Die 302 GB von fstrim sind rein die bisher nicht zurückgemeldeten Blöcke.
Wenn die Datenträgergruppenbereinigung durch ist, würde ich...