Hallo liebe Proxmoxgemeinde,
ich habe für einen Bekanten einen Proxmox V5 aufgesetzt und in meinem Heimischen Netzwerk konfiguriert.
Um das Betreiben von mehreren Nodes zu testen habe ich einen Cluster mittels pvecm Create erstellt und einen weiteren Node erfolgreich hinzugefügt. Da der 2. Node lediglich zum testen bereit stand habe ich diesen über pvecm del Node2name wieder entfernt.
Anschliessend wurde der 1. Node an seinem neuen Heimathafen aufgestellt und dort eingeschaltet. Nach IP Umstellung startete jedoch der Cluster nicht weshalb dann mittels systemctl stop pve-cluster, systemctl stop corosync und anschließendem pmxcfs -l die Corosynt.conf im Verzeichnis /etc/corosync mit der neuen IP versehen wurde. Dann wurde noch die Corosync.conf laut Anleitung nach /etc/pve/ kopiert und der Server neu gestartet.
Leider lädt der Cluster noch immer nicht und ich muss nach jedem start die Befehle systemctl stop pve-cluster, systemctl stop corosync und anschließendem pmxcfs -l ausführen um die vorhandenen VMs zum starten zu bringen.
Ich hoffe mir kann jemand helfen und mir sagen was ich falsch gemacht habe.
Ich wollte zuerst den Custer nach der Vorgehensweise
First stop the corosync and the pve-cluster services on the node:
systemctl stop pve-cluster
systemctl stop corosync
Start the cluster filesystem again in local mode:
pmxcfs -l
Delete the corosync configuration files:
rm /etc/pve/corosync.conf
rm /etc/corosync/*
You can now start the filesystem again as normal service:
killall pmxcfs
systemctl start pve-cluster
am Node 1 komplett löschen, war mir aber nicht sicher ob ich dann die VMs komplet verliere.
Ich danke vorab für die Hilfe.
MfG Zero
ich habe für einen Bekanten einen Proxmox V5 aufgesetzt und in meinem Heimischen Netzwerk konfiguriert.
Um das Betreiben von mehreren Nodes zu testen habe ich einen Cluster mittels pvecm Create erstellt und einen weiteren Node erfolgreich hinzugefügt. Da der 2. Node lediglich zum testen bereit stand habe ich diesen über pvecm del Node2name wieder entfernt.
Anschliessend wurde der 1. Node an seinem neuen Heimathafen aufgestellt und dort eingeschaltet. Nach IP Umstellung startete jedoch der Cluster nicht weshalb dann mittels systemctl stop pve-cluster, systemctl stop corosync und anschließendem pmxcfs -l die Corosynt.conf im Verzeichnis /etc/corosync mit der neuen IP versehen wurde. Dann wurde noch die Corosync.conf laut Anleitung nach /etc/pve/ kopiert und der Server neu gestartet.
Leider lädt der Cluster noch immer nicht und ich muss nach jedem start die Befehle systemctl stop pve-cluster, systemctl stop corosync und anschließendem pmxcfs -l ausführen um die vorhandenen VMs zum starten zu bringen.
Ich hoffe mir kann jemand helfen und mir sagen was ich falsch gemacht habe.
Ich wollte zuerst den Custer nach der Vorgehensweise
First stop the corosync and the pve-cluster services on the node:
systemctl stop pve-cluster
systemctl stop corosync
Start the cluster filesystem again in local mode:
pmxcfs -l
Delete the corosync configuration files:
rm /etc/pve/corosync.conf
rm /etc/corosync/*
You can now start the filesystem again as normal service:
killall pmxcfs
systemctl start pve-cluster
am Node 1 komplett löschen, war mir aber nicht sicher ob ich dann die VMs komplet verliere.
Ich danke vorab für die Hilfe.
MfG Zero