Hallo zusammen,
ich bin neu mit Proxmox und spiele gerade etwas herum.
Ist ein sehr interessantes System, aber irgendwie gibt es gerade was die Benutzerführung angeht Unzulänglichkeiten an allen Ecken. So empfinde ich es jedenfalls lol.
Durch eine "falsche" Konfiguration steht jetzt beispielsweise eine VM still und scheint komplett bricked zu sein.
Ich habe einen Mini-Cluster mit drei Knoten. Die VM lief auf 1, Disk replication von 1 zu 2 und HA-Gruppe 1 + 3 (hier liegt der Fehler).
Es kam, wie es kommen musste, und die VM wurde auf Knoten 3 geschoben, wo die VM-Disks nicht vorhanden sind.
Und seitdem geht gar nichts mehr mit der VM.
Die VM einfach auf Knoten 1 zurück migrieren? Geht nicht.
"can't migrate local disk 'local-zfs:vm-101-disk-0': zfs error: cannot open 'rpool/data/vm-101-disk-0': dataset does not exist"
Die VM-Disks auf Knoten 3 replizieren? Wird nicht angeboten. Bei den VM-Disks selbst kann man gar nichts auswählen, und die VM ist ja bereits auf Knoten 3 (nur fehlen die Disks ja leider) aber dort wird keine Replikation auf 3 angeboten.
Die Hardware entfernen? Geht nicht. Die Disks sind noch Teil eines Snapshots.
Den Snapshot löschen? Geht nicht, da die Disks nicht gefunden werden können.
Eine neue VM anlegen und die bestehenden Disks auswähen? Geht nicht. Scheinbar können nur neue Disks angelegt werden??
Ich bin also in einer ganz eigenartigen Situation und frage ich mich wie (ob) ich da wieder rauskomme.
Es würde ja gehen, wenn das System an der Stelle nicht so bevormundend wäre und einfach die VM verschieben würde...
Was soll denn passieren, wenn mal eine Festplatte ausfällt und die VM dann nicht mehr drauf zugreifen kann? Ist dann auch wieder direkt alles bricked? Kann doch nicht sein.
Wie kann ich weiter machen?
Edit: Oh geil. Ich dachte mir ich lege manuell einen replication job an in der replication.conf und daraufhin sind jetzt die Disks auf allen Nodes weg... geil
ich bin neu mit Proxmox und spiele gerade etwas herum.
Ist ein sehr interessantes System, aber irgendwie gibt es gerade was die Benutzerführung angeht Unzulänglichkeiten an allen Ecken. So empfinde ich es jedenfalls lol.
Durch eine "falsche" Konfiguration steht jetzt beispielsweise eine VM still und scheint komplett bricked zu sein.
Ich habe einen Mini-Cluster mit drei Knoten. Die VM lief auf 1, Disk replication von 1 zu 2 und HA-Gruppe 1 + 3 (hier liegt der Fehler).
Es kam, wie es kommen musste, und die VM wurde auf Knoten 3 geschoben, wo die VM-Disks nicht vorhanden sind.
Und seitdem geht gar nichts mehr mit der VM.
Die VM einfach auf Knoten 1 zurück migrieren? Geht nicht.
"can't migrate local disk 'local-zfs:vm-101-disk-0': zfs error: cannot open 'rpool/data/vm-101-disk-0': dataset does not exist"
Die VM-Disks auf Knoten 3 replizieren? Wird nicht angeboten. Bei den VM-Disks selbst kann man gar nichts auswählen, und die VM ist ja bereits auf Knoten 3 (nur fehlen die Disks ja leider) aber dort wird keine Replikation auf 3 angeboten.
Die Hardware entfernen? Geht nicht. Die Disks sind noch Teil eines Snapshots.
Den Snapshot löschen? Geht nicht, da die Disks nicht gefunden werden können.
Eine neue VM anlegen und die bestehenden Disks auswähen? Geht nicht. Scheinbar können nur neue Disks angelegt werden??
Ich bin also in einer ganz eigenartigen Situation und frage ich mich wie (ob) ich da wieder rauskomme.
Es würde ja gehen, wenn das System an der Stelle nicht so bevormundend wäre und einfach die VM verschieben würde...
Was soll denn passieren, wenn mal eine Festplatte ausfällt und die VM dann nicht mehr drauf zugreifen kann? Ist dann auch wieder direkt alles bricked? Kann doch nicht sein.
Wie kann ich weiter machen?
Edit: Oh geil. Ich dachte mir ich lege manuell einen replication job an in der replication.conf und daraufhin sind jetzt die Disks auf allen Nodes weg... geil
Last edited: