Search results

  1. B

    Storage zu 99% belegt nach Replikation

    @nhh, nein, unterschiedliche Storage-Namen sind hier keine Option — die Replikation erfordert den gleichen Storage-Namen auf beiden Nodes, sonst funktioniert sie nicht. Die Anzeige im Datacenter-Summary ist einfach so. Schau dir den Storage-Status immer pro Node an, dann passt es. Was mir an...
  2. B

    Storage zu 99% belegt nach Replikation

    Hallo @nhh, zpool list zeigt die Wahrheit: 33% belegt, 2.41T frei. Es gibt kein tatsächliches Platzproblem. Was du in der UI siehst, ist ein bekanntes Anzeigeverhalten: Proxmox summiert in der Summary-Ansicht den belegten Speicher beider Nodes für den gleichnamigen Storage ZFS01, zeigt aber...
  3. B

    Container mit Desktop

    Hallo @legolas, für einen schlanken LXC mit Browser hast du mehrere Optionen: 1. Minimaler Ansatz: Xfce + Firefox Debian/Ubuntu-Template nehmen, dann: apt update && apt install -y xfce4 xfce4-terminal firefox-esr 2. Zugriff auf den Desktop Am einfachsten per noVNC oder RDP: noVNC: apt...
  4. B

    Adguard LXC 100% Auslastung auf Proxmox

    Hallo @nitrosont, poste bitte mal: Deine AdGuard Home Version (AdGuardHome --version im Container) Die Container-Config (cat /etc/pve/lxc/<CTID>.conf) Ob Safe Browsing und/oder Kindersicherung in AdGuard aktiviert sind Wenn es das nächste Mal passiert, bevor du den Container neustartest: # Im...
  5. B

    Netzwerk alle paar Tage weg. Proxmox und VMs nicht mehr erreichbar

    Hallo @Raoul1963, reguläre Updates über apt dist-upgrade könnt ihr bedenkenlos machen — der gepinnte Kernel wird dadurch nicht verändert. Es wird zwar ein neuer Kernel installiert, aber durch den Pin bootet das System weiterhin mit eurem funktionierenden Kernel. Sicherheitsupdates für Proxmox...
  6. B

    Platten 'landen' nicht im ZFS-Pool, was kann ich machen?

    @maze-m, das -f ist hier sicher — genau dafür ist es gedacht. ZFS meckert nur, weil es erkennt, dass die Zielplatte bereits im Pool ist. Da du dieselbe physische Platte durch sich selbst ersetzt (nur mit anderem Pfad), passiert den Daten nichts. Aber: Du hast sdf als Whole-Disk hinzugefügt...
  7. B

    Veeam & Proxmox bei Shared Storage via FC

    Hallo @Ahtse, die Kernfrage ist schon gut beantwortet — für die VM-Disks auf eurem shared LVM via FC braucht ihr keine Snapshot-Funktionalität, raw reicht. Veeam nutzt für die Sicherung den QEMU Dirty Bitmap Mechanismus (CBT), keine Storage-Level-Snapshots. Was @Medo-Luki angesprochen hat, ist...
  8. B

    NFS-Export scheint beschreibbar, Änderungen erscheinen aber nicht auf Festplatte

    Hallo @joulethief, Das Problem ist, dass du dasselbe XFS-Dateisystem gleichzeitig von zwei unabhängigen Systemen aus mountest – einmal vom Proxmox-Host (und per virtiofs an Jellyfin weitergereicht) und einmal von der NFS-Server-VM über das rohe SCSI-Device. Das ist mit einem...
  9. B

    Sicherung von Sicherungen

    @TErxleben, Ein extractvma-Subcommand existiert nicht, aber du kannst dir den Workflow mit dem vma-Tool (auf jedem PVE-Host vorhanden) bauen: #!/bin/bash REPO="user@pbs-host:datastore" VMID=100 DEST="/mnt/usb" TMP=$(mktemp -d) # Latest Snapshot ermitteln SNAP=$(proxmox-backup-client...
  10. B

    Proxmox für 500-1000 VMs

    Stimmt, danke für die Korrektur — LVM-Thin ist nur lokal nutzbar und damit für einen Cluster mit Shared Storage keine Option. Für lokalen Speicher ohne HW-RAID ist ZFS tatsächlich die bessere Wahl, allein schon wegen Checksummen und Selbstheilung. @Stefan123 um das nochmal zusammenzufassen: Für...
  11. B

    Sicherung von Sicherungen

    Das Disk-Image, das du per proxmox-backup-client restore bekommst, ist inhaltlich identisch mit dem Raw-Image innerhalb einer VMA — gleiche Rohdaten, nur ohne den VMA-Container drumherum. Der Unterschied liegt im Restore-Weg zurück nach PVE: VMA: qmrestore backup.vma 100 — ein Befehl, fertig...
  12. B

    OCFS2(unsupported): Frage zu Belegung

    Ja, genau — den Scrub komplett durchlaufen lassen. Der Controller verarbeitet die UNMAP-Befehle erst beim Bereinigungslauf, und solange der läuft (oder abgebrochen wird), staut sich das. Die bisherigen ~500 GB via fstrim sind beim Controller angekommen, aber noch nicht in freigegebene Pages...
  13. B

    merkwürtiges Netzwerkproblem beim Zugriff auf PVE

    @garfield2008 , Gut, damit ist die Ursache bestätigt. Was sich geändert hat: Vermutlich haben bei der Neuinstallation/dem Update die OVS-Bridges oder Bonds die MTU 9000 von den NICs übernommen (OVS negotiiert die MTU automatisch anhand der darunterliegenden Interfaces). Vorher war die MTU...
  14. B

    Sicherung von Sicherungen

    Genau das. Der `restore`-Befehl schreibt dir das Image raus, und du packst einfach zstd dahinter: proxmox-backup-client restore vm/100/2026-01-27T12:00:00Z drive-scsi0.img.fidx /mnt/usb/vm-100-disk-0.raw --repository user@pbs-host:datastore zstd --rm /mnt/usb/vm-100-disk-0.raw --rm löscht...
  15. B

    merkwürtiges Netzwerkproblem beim Zugriff auf PVE

    @garfield2008, Der tcpdump verrät es: Der TCP-Handshake klappt einwandfrei (SYN → SYN-ACK → ACK), aber danach kommt keine Daten-Übertragung zustande — der Server schickt nach 5 Sekunden ein FIN. Das ist ein klassisches MTU-Problem. Schau dir die MSS im tcpdump an: mss 8960 — das bedeutet MTU...
  16. B

    merkwürtiges Netzwerkproblem beim Zugriff auf PVE

    Hallo @garfield2008, Zwei Sachen zum Eingrenzen: 1. Kann die VM den PVE-Node erreichen, auf dem sie NICHT läuft? Also wenn die VM auf Node1 liegt: kommt sie per SSH/HTTPS auf Node2 und Node3? Das würde klären, ob es ein Hairpin-Problem ist (Traffic geht über bond1 raus zum Switch und müsste...
  17. B

    Sicherung von Sicherungen

    @TErxleben, PBS-Backups als Raw-Images extrahieren geht direkt mit dem proxmox-backup-client — ohne VM-Restore: # Snapshots auflisten proxmox-backup-client list --repository user@pbs-host:datastore # Enthaltene Archives eines Snapshots anzeigen proxmox-backup-client snapshot files...
  18. B

    OCFS2(unsupported): Frage zu Belegung

    Die Allocated Pages bestätigen das Bild: 1.673.851 Pages × 4 MiB (Standard-Pagesize MSA 2060) = ~6,39 TiB — das deckt sich mit den ~7,0 TB auf Pool-Ebene. OCFS2 meldet 3,8T belegt → ca. 2,5 TiB sind stale-Allocations, die vom Filesystem freigegeben aber dem MSA nie per UNMAP zurückgemeldet...
  19. B

    OCFS2(unsupported): Frage zu Belegung

    @sgw, gut, dass show snapshots nichts zeigt — dann liegt da zumindest kein alter Snapshot-Overhead rum. Die 302 GB von fstrim sind rein die bisher nicht zurückgemeldeten Blöcke. Wenn die Datenträgergruppenbereinigung durch ist, würde ich nochmal fstrim -v /mnt/ocfs2/PVE001 laufen lassen —...
  20. B

    Proxmox für 500-1000 VMs

    Guter Punkt — bei 500+ VMs und Ceph ist 100G tatsächlich die richtige Empfehlung. Die Preisdifferenz zu 25G ist mittlerweile überschaubar und man spart sich das spätere Aufrüsten. @Stefan123 also bei der Netzwerkplanung direkt 100G für das Storage-Netzwerk einplanen. Für das...