@nitrosont, dein top-Output zeigt das Problem ziemlich eindeutig — es ist kein CPU-Problem, sondern Speicher:
MiB Mem: 256.0 total, 1.2 free, 253.3 used — RAM praktisch voll
MiB Swap: 256.0 total, 0.1 free, 255.9 used — Swap ebenfalls voll...
@Joe77, die winsat-Ergebnisse mit v3 vs v4 sind praktisch identisch (Random 16K Read 179 vs 192 MB/s) — CPU-Typ und VBS sind damit als Ursache ausgeschlossen. Dass eine einzelne SATA-SSD bei @boisbleu 831 MB/s Random Read liefert und deine drei...
Hallo @Joe77,
die CrystalDiskMark-Werte bestätigen das Problem — die sequentiellen Werte sind hervorragend, aber 4K Q1T1 mit ~35/28 MB/s ist für drei PM983 NVMe im Verbund deutlich zu wenig. Die Ursache ist, wie @cwt schon angedeutet hat, das...
@Stefan123 wenn ihr ein dediziertes Ceph-Cluster nutzt und die Compute-Nodes nur als Hypervisor laufen, dann brauchen die Nodes lokal keine schnellen Platten für die VM-Workloads — die I/O läuft ja komplett übers Netzwerk zum Ceph-Cluster...
Das bringt ja nix, weil man dann kein shared Storage mehr hat.
Veeam ist nicht auf eine Diskbasierte Snapshotfunktion angewiesen, also schön klassisch LVM shared nutzen und das läuft auch mit Veeam.
Ich persönlich nutze Veeam nur noch Agent...
@Stefan123,
wenn ihr ein dediziertes Ceph-Storage-Cluster mit NVMe betreibt, laufen auf den Compute-Nodes keine Ceph-OSDs. Die lokalen Platten dort brauchen nur das PVE-OS, ISOs und ggf. temporäre Daten — dafür reichen SAS-SSDs völlig aus, die...
@Stefan123, bei einem dedizierten Ceph-Storage-Cluster laufen auf den Compute-Nodes keine Ceph-OSDs — die VM-Disks werden über das Netzwerk via RBD angebunden. Die lokalen Platten in den Nodes brauchen nur Proxmox selbst (OS) und ggf. ISO-Images...
@Ahtse , der Hinweis von @Johannes S ist wichtig: Die von Blockbridge dokumentierten Datenintegritätsprobleme bei qcow2/LVM-Snapshots mit cache=none relativieren meine Aussage von vorhin deutlich. Ich würde von Volume-Chain-Snapshots auf dem...
D
Guten Morgen und Danke! Host PVE11 hat gar keine FC/Multipath-Anbindung. Aber der fliegt eh demnächst wieder aus dem Cluster raus. Der war nur zu Testzewcken drin. Die GUI ist bzgl. der Statistik-Daten wieder stabil (Ressourcen-Graphen der VMs...
Hier war tatsächlich das Forum (in persona Bu66as) schneller als der offizielle Support mit der Analyse und dem richtigen Hinweis. Und ich habe wieder etwas dazu gelernt. Vielen Dank nochmal!
Hallo @alejandro85,
This is expected behavior, but it's a Veeam limitation, not a Proxmox issue. The Proxmox API (/api2/json/cluster/resources) always returns the correct current node for every VM in real-time — there is no delay on the Proxmox...
@vmwombat,
gut, Metrics-Server raus ist der richtige Schritt. Sind die GUI-Symptome (fehlende VM-Namen, Statistik-Lücken) jetzt weg? Falls ja, war das die Ursache.
Noch offen: 'rz-monitor'
Neben 'pve-monitor' wirft auch rz-monitor alle paar...
Sie hat außerdem eine schlechtere Performance zur Folge, das muss man also benchmarken und dann schauen, ob es das einen wert ist:
https://kb.blockbridge.com/technote/proxmox-qcow-snapshots-on-lvm/index.html
Und ein grundsätzliches Problem (ganz...
@aL1aL7, stimmt, da war ich gerade wo anderster. Seit PVE 9 unterstützt thick LVM über Volume-Chain-Snapshots tatsächlich qcow2 mit Snapshot-Funktionalität.
@Ahtse, damit ist deine ursprüngliche Idee prinzipiell nicht falsch: Volume Chain Snaps...
@Ahtse,
nein, das geht so nicht. Ein LVM-Storage (thick) in Proxmox unterstützt ausschließlich das raw-Format — qcow2 ist dort nicht möglich, unabhängig von irgendwelchen Einstellungen. Das ist eine Limitation des Storage-Typs in Proxmox, nicht...