Bu66as's latest activity

  • B
    Hallo @nitrosont, poste bitte mal: Deine AdGuard Home Version (AdGuardHome --version im Container) Die Container-Config (cat /etc/pve/lxc/<CTID>.conf) Ob Safe Browsing und/oder Kindersicherung in AdGuard aktiviert sind Wenn es das nächste Mal...
  • B
    Hallo @Raoul1963, reguläre Updates über apt dist-upgrade könnt ihr bedenkenlos machen — der gepinnte Kernel wird dadurch nicht verändert. Es wird zwar ein neuer Kernel installiert, aber durch den Pin bootet das System weiterhin mit eurem...
  • B
    Bu66as reacted to bl1mp's post in the thread Proxmox für 500-1000 VMs with Like Like.
    (Ceph RBD nutzt das RAW-Format, die "Magie" für Snapshots und Thin provisioning passiert im Storage Layer und nicht auf der Dateiebene. Das macht es performanter. (nur als kurze Ergänzung )) Ähm 100G-Switche mit Peitschen-/ Breakoutkabeln sind...
  • B
    @maze-m, das -f ist hier sicher — genau dafür ist es gedacht. ZFS meckert nur, weil es erkennt, dass die Zielplatte bereits im Pool ist. Da du dieselbe physische Platte durch sich selbst ersetzt (nur mit anderem Pfad), passiert den Daten nichts...
  • B
    Und noch eine Ergänzung: Bei MS SQL Servern unterstützt Veeam auch das Backup von Clustern, bei anderen Datenbankengines (Postgres, MySQL/mariadb) nicht. Das wäre für mich ein Grund auf Veeams application-aware Backups zu Gunsten von...
  • B
    Hallo @Ahtse, die Kernfrage ist schon gut beantwortet — für die VM-Disks auf eurem shared LVM via FC braucht ihr keine Snapshot-Funktionalität, raw reicht. Veeam nutzt für die Sicherung den QEMU Dirty Bitmap Mechanismus (CBT), keine...
  • B
    Hallo @joulethief, Das Problem ist, dass du dasselbe XFS-Dateisystem gleichzeitig von zwei unabhängigen Systemen aus mountest – einmal vom Proxmox-Host (und per virtiofs an Jellyfin weitergereicht) und einmal von der NFS-Server-VM über das rohe...
  • B
    Bu66as replied to the thread Sicherung von Sicherungen.
    @TErxleben, Ein extractvma-Subcommand existiert nicht, aber du kannst dir den Workflow mit dem vma-Tool (auf jedem PVE-Host vorhanden) bauen: #!/bin/bash REPO="user@pbs-host:datastore" VMID=100 DEST="/mnt/usb" TMP=$(mktemp -d) # Latest...
  • B
    Bu66as reacted to Impact's post in the thread implausibly old time stamp with Like Like.
    Pa Das passiert bei CTs leider üblicherweise nicht. Zumindestens nicht vor Beendigung. Bitte nicht. Snapshots ersetzen ein richtiges Backup genau so wenig wie RAID. Ich empfehle immer beides. Schau dir auch mal cv4pve-autosnap an Schau auch mal...
  • B
    Bu66as replied to the thread Proxmox für 500-1000 VMs.
    Stimmt, danke für die Korrektur — LVM-Thin ist nur lokal nutzbar und damit für einen Cluster mit Shared Storage keine Option. Für lokalen Speicher ohne HW-RAID ist ZFS tatsächlich die bessere Wahl, allein schon wegen Checksummen und...
  • B
    Bu66as replied to the thread Sicherung von Sicherungen.
    Das Disk-Image, das du per proxmox-backup-client restore bekommst, ist inhaltlich identisch mit dem Raw-Image innerhalb einer VMA — gleiche Rohdaten, nur ohne den VMA-Container drumherum. Der Unterschied liegt im Restore-Weg zurück nach PVE...
  • B
    Bu66as reacted to sgw's post in the thread OCFS2(unsupported): Frage zu Belegung with Like Like.
    Alles klar, ich warte ab. Kann dauern ;-) danke
  • B
    Ja, genau — den Scrub komplett durchlaufen lassen. Der Controller verarbeitet die UNMAP-Befehle erst beim Bereinigungslauf, und solange der läuft (oder abgebrochen wird), staut sich das. Die bisherigen ~500 GB via fstrim sind beim Controller...
  • B
    @garfield2008 , Gut, damit ist die Ursache bestätigt. Was sich geändert hat: Vermutlich haben bei der Neuinstallation/dem Update die OVS-Bridges oder Bonds die MTU 9000 von den NICs übernommen (OVS negotiiert die MTU automatisch anhand der...
  • B
    Bu66as replied to the thread Sicherung von Sicherungen.
    Genau das. Der `restore`-Befehl schreibt dir das Image raus, und du packst einfach zstd dahinter: proxmox-backup-client restore vm/100/2026-01-27T12:00:00Z drive-scsi0.img.fidx /mnt/usb/vm-100-disk-0.raw --repository user@pbs-host:datastore...
  • B
    @garfield2008, Der tcpdump verrät es: Der TCP-Handshake klappt einwandfrei (SYN → SYN-ACK → ACK), aber danach kommt keine Daten-Übertragung zustande — der Server schickt nach 5 Sekunden ein FIN. Das ist ein klassisches MTU-Problem. Schau dir...
  • B
    Hallo @garfield2008, Zwei Sachen zum Eingrenzen: 1. Kann die VM den PVE-Node erreichen, auf dem sie NICHT läuft? Also wenn die VM auf Node1 liegt: kommt sie per SSH/HTTPS auf Node2 und Node3? Das würde klären, ob es ein Hairpin-Problem ist...
  • B
    Bu66as replied to the thread Sicherung von Sicherungen.
    @TErxleben, PBS-Backups als Raw-Images extrahieren geht direkt mit dem proxmox-backup-client — ohne VM-Restore: # Snapshots auflisten proxmox-backup-client list --repository user@pbs-host:datastore # Enthaltene Archives eines Snapshots...
  • B
    Die Allocated Pages bestätigen das Bild: 1.673.851 Pages × 4 MiB (Standard-Pagesize MSA 2060) = ~6,39 TiB — das deckt sich mit den ~7,0 TB auf Pool-Ebene. OCFS2 meldet 3,8T belegt → ca. 2,5 TiB sind stale-Allocations, die vom Filesystem...
  • B
    @sgw, gut, dass show snapshots nichts zeigt — dann liegt da zumindest kein alter Snapshot-Overhead rum. Die 302 GB von fstrim sind rein die bisher nicht zurückgemeldeten Blöcke. Wenn die Datenträgergruppenbereinigung durch ist, würde ich...