Hallo @alejandro85,
This is expected behavior, but it's a Veeam limitation, not a Proxmox issue. The Proxmox API (/api2/json/cluster/resources) always returns the correct current node for every VM in real-time — there is no delay on the Proxmox...
@vmwombat,
gut, Metrics-Server raus ist der richtige Schritt. Sind die GUI-Symptome (fehlende VM-Namen, Statistik-Lücken) jetzt weg? Falls ja, war das die Ursache.
Noch offen: 'rz-monitor'
Neben 'pve-monitor' wirft auch rz-monitor alle paar...
Sie hat außerdem eine schlechtere Performance zur Folge, das muss man also benchmarken und dann schauen, ob es das einen wert ist:
https://kb.blockbridge.com/technote/proxmox-qcow-snapshots-on-lvm/index.html
Und ein grundsätzliches Problem (ganz...
@aL1aL7, stimmt, da war ich gerade wo anderster. Seit PVE 9 unterstützt thick LVM über Volume-Chain-Snapshots tatsächlich qcow2 mit Snapshot-Funktionalität.
@Ahtse, damit ist deine ursprüngliche Idee prinzipiell nicht falsch: Volume Chain Snaps...
@Ahtse,
nein, das geht so nicht. Ein LVM-Storage (thick) in Proxmox unterstützt ausschließlich das raw-Format — qcow2 ist dort nicht möglich, unabhängig von irgendwelchen Einstellungen. Das ist eine Limitation des Storage-Typs in Proxmox, nicht...
Die Logs sind eindeutig — pmxcfs und Corosync sind nicht das Problem. ls /etc/pve/nodes/ antwortet in 0.003s, pve-cluster loggt nur normale "received log" und "data verification successful" Meldungen.
Die Ursache sind zwei Dinge:
1. Externer...
Das Image ist korrekt. ssh statt sshd ist nur Ubuntus Namensgebung — das ist nicht das Problem.
Das Problem ist die Reihenfolge der Drop-in-Dateien. OpenSSH verwendet first match wins — der erste gesetzte Wert gilt. Die Dateien in sshd_config.d/...
@Stefan123, wenn ihr ein dediziertes Ceph-Cluster als Storage nutzt, laufen auf den Compute-Nodes keine Ceph-OSDs. Die lokalen Platten in den Nodes brauchen dann nur das Proxmox-OS und ggf. ISOs/Templates — dafür sind SAS-SSDs völlig ausreichend...
@Stefan123, wenn ihr ein dediziertes Ceph-Cluster nutzt, laufen auf den Compute-Nodes keine Storage-I/Os für die VMs — die lokalen Platten dienen dort nur als Boot-/OS-Laufwerke für Proxmox selbst. Dafür reichen SAS-SSDs locker, selbst SATA-SSDs...
@LucasKer,
Wie @Johannes S schon sagt — zentrale Sammlung gibt es nicht. Hier die direkten Links für deine Distros:
Debian: https://cloud.debian.org/images/cloud/ (jeweils latest/ Unterordner)
Ubuntu: https://cloud-images.ubuntu.com/ (z.B...
Hallo @alexw919,
einen Workaround auf User-Seite gibt es nicht — das Verhalten muss in PBS selbst geändert werden. Der zugehörige Bug ist unter https://bugzilla.proxmox.com/show_bug.cgi?id=5971 erfasst, wurde aber bisher nicht weiter bearbeitet...
Hallo @rothkraut,
ja, das ist problemlos möglich und auch der empfohlene Weg.
Der PBS bekommt einfach beide Netzwerk-Interfaces konfiguriert — eins im Management-Netz für die Web-UI, eins im Backup-Netz über den LACP-Bond.
Beim Hinzufügen des...
@LucasKer,
Debian, Ubuntu und AlmaLinux haben im Wesentlichen den gleichen Workflow. Unterschiede nur beim Paketmanager (apt vs dnf) und dem Cloud-Image-Download-Link. CentOS (Stream) genauso wie AlmaLinux.
Windows-Template Workflow:
# 1. VM...
@LucasKer,
PBS läuft in einer VM problemlos — das ist ein gängiges Setup. Wichtig: PBS profitiert stark von schnellem Storage für den Metadaten-/Index-Bereich. Idealerweise gibst du der PBS-VM eine kleine NVMe-Disk (z.B. 30–50 GB) für...
Hallo @LucasKer,
PBS bietet keine S3-kompatiblen Endpoints. PBS hat ein eigenes Protokoll und ist primär für das Backup von VMs/CTs aus Proxmox VE gedacht (sowie Linux-Hosts über den proxmox-backup-client).
Wenn du aus Plesk/cPanel heraus...
@LucasKer,
Serielle Konsole: Das ist normales Verhalten bei --vga serial0. Die GUI zeigt dann die serielle Konsole statt einer grafischen — da muss man immer erst Enter drücken, damit der Login-Prompt erscheint. Wenn dich das stört, kannst du...
Hallo @vmwombat,
das Fragezeichen und fehlende VM-Namen deuten darauf hin, dass pvestatd zeitweise die VM-Konfigurationen nicht lesen kann. Das läuft über pmxcfs (/etc/pve).
Bitte auf allen drei Nodes prüfen:
# pvestatd Status und Logs...