Bu66as's latest activity

  • B
    Hallo @nimblefox, Das OpenResty-Problem ist repo-seitig. Debian Trixie verwendet sqv zur Signaturprüfung, und seit 2026-02-01 werden SHA1-basierte Binding-Signaturen abgelehnt. Der OpenResty-Signing-Key nutzt noch SHA1 — das muss upstream gefixt...
  • B
    Hallo @Raoul1963, reguläre Paket-Updates (apt update && apt dist-upgrade) könnt ihr bedenkenlos machen — der Kernel-Pin bleibt davon unberührt. Es werden zwar ggf. neuere Kernel-Pakete installiert, aber gebootet wird weiterhin in den gepinnten...
  • B
    Hallo @3n0x, so lässt sich das leider nicht eingrenzen — da brauchen wir deutlich mehr Infos: Proxmox VE Version (pveversion -v) Netzwerk-Konfiguration (cat /etc/network/interfaces) Zwischen welchen Endpunkten ist es langsam? (VM↔VM, VM↔Host...
  • B
    Hallo @rothkraut, das automatische Zurückmigrieren nach einem Ausfall ist über HA-Gruppen mit Node-Prioritäten möglich. Beispiel-Setup: Gruppe "brandabschnitt-a": Node1 (Priorität 2), Node2 (Priorität 2), Node3 (Priorität 1), Node4 (Priorität...
  • B
    Hallo @nimblefox, das ist ein klassisches DNS-Problem im Container — er kann keine Hostnamen auflösen. Bitte poste die Ausgabe folgender Befehle im Container: cat /etc/resolv.conf ping -c 3 8.8.8.8 ip a ip r Der ping auf die IP zeigt, ob...
  • B
    Dass die MSA-Belegung nach Scrub-Abschluss unverändert bei 94% steht obwohl ~500 GB per UNMAP gemeldet wurden, ist auffällig. Die Datenträgergruppenbereinigung ist primär ein Integritätscheck (Parity-Verify) — die UNMAP-Verarbeitung läuft davon...
  • B
    Hallo @Raoul1963, @Karl_OS, Das ist ein bekannter Regression-Bug im Kernel 6.8.12-9-pve, der Intel e1000e NICs betrifft — ihr seid also nicht allein damit. Zum Thema Updates: Reguläre Paket-Updates (apt dist-upgrade) könnt ihr weiterhin machen...
  • B
    Das -f ist hier absolut sicher — ZFS meckert nur, weil es erkennt, dass der by-id-Pfad auf dieselbe physische Platte zeigt, die bereits im Pool ist. Genau das wollen wir ja. Allerdings: Du hast -part1 angehängt, das ist falsch. sdf wurde als...
  • B
    @nitrosont, dein top-Output zeigt das Problem ziemlich eindeutig — es ist kein CPU-Problem, sondern Speicher: MiB Mem: 256.0 total, 1.2 free, 253.3 used — RAM praktisch voll MiB Swap: 256.0 total, 0.1 free, 255.9 used — Swap ebenfalls voll...
  • B
    @Joe77, die winsat-Ergebnisse mit v3 vs v4 sind praktisch identisch (Random 16K Read 179 vs 192 MB/s) — CPU-Typ und VBS sind damit als Ursache ausgeschlossen. Dass eine einzelne SATA-SSD bei @boisbleu 831 MB/s Random Read liefert und deine drei...
  • B
    Hallo @Joe77, die CrystalDiskMark-Werte bestätigen das Problem — die sequentiellen Werte sind hervorragend, aber 4K Q1T1 mit ~35/28 MB/s ist für drei PM983 NVMe im Verbund deutlich zu wenig. Die Ursache ist, wie @cwt schon angedeutet hat, das...
  • B
    Bu66as replied to the thread Proxmox für 500-1000 VMs.
    @Stefan123 wenn ihr ein dediziertes Ceph-Cluster nutzt und die Compute-Nodes nur als Hypervisor laufen, dann brauchen die Nodes lokal keine schnellen Platten für die VM-Workloads — die I/O läuft ja komplett übers Netzwerk zum Ceph-Cluster...
  • B
    Stimmt, danke @Falk R. da habe ich mich vertan.
  • B
    Das bringt ja nix, weil man dann kein shared Storage mehr hat. Veeam ist nicht auf eine Diskbasierte Snapshotfunktion angewiesen, also schön klassisch LVM shared nutzen und das läuft auch mit Veeam. Ich persönlich nutze Veeam nur noch Agent...
  • B
    Bu66as replied to the thread Proxmox für 500-1000 VMs.
    @Stefan123, wenn ihr ein dediziertes Ceph-Storage-Cluster mit NVMe betreibt, laufen auf den Compute-Nodes keine Ceph-OSDs. Die lokalen Platten dort brauchen nur das PVE-OS, ISOs und ggf. temporäre Daten — dafür reichen SAS-SSDs völlig aus, die...
  • B
    Bu66as replied to the thread Proxmox für 500-1000 VMs.
    @Stefan123, bei einem dedizierten Ceph-Storage-Cluster laufen auf den Compute-Nodes keine Ceph-OSDs — die VM-Disks werden über das Netzwerk via RBD angebunden. Die lokalen Platten in den Nodes brauchen nur Proxmox selbst (OS) und ggf. ISO-Images...
  • B
    @Ahtse , der Hinweis von @Johannes S ist wichtig: Die von Blockbridge dokumentierten Datenintegritätsprobleme bei qcow2/LVM-Snapshots mit cache=none relativieren meine Aussage von vorhin deutlich. Ich würde von Volume-Chain-Snapshots auf dem...
  • B
    D Guten Morgen und Danke! Host PVE11 hat gar keine FC/Multipath-Anbindung. Aber der fliegt eh demnächst wieder aus dem Cluster raus. Der war nur zu Testzewcken drin. Die GUI ist bzgl. der Statistik-Daten wieder stabil (Ressourcen-Graphen der VMs...
  • B
    Hier war tatsächlich das Forum (in persona Bu66as) schneller als der offizielle Support mit der Analyse und dem richtigen Hinweis. Und ich habe wieder etwas dazu gelernt. Vielen Dank nochmal!
  • B
    Bu66as reacted to dekiesel's post in the thread Nachträglich Backups verschlüsseln? with Like Like.
    Vielen Dank, @Bu66as! So werde ich es machen. Schönes Wochenende!