Cluster gestorben

sunghost

Active Member
May 27, 2011
168
1
38
Hi,
ich hatte einen 3 Node Cluster. Die KVM-VMs lagen im LVM-Thin. Nun ist ein Node ausgestiegen. Ein defekter Sektor lässt den Kernel nicht starten. OS und VMs sind auf je einer Disk getrennt. Meine Fragen:

1. Wie kann ich die VMs auf dem Node mit dem defekten Sektor retten? Einfach PVE auf der OS Disk neuinstallierne und dann... ?
2. Damit ich die anderen VMs starten konnte habe ich dies hier im Forum gefunden und ausgeführt, es klappte:
"pvecm expected 1" <- verstehe ich es richtig und damit senke ich das Quorum auf 1? Was bedeutet das nun ?

Danke für die Hilfe
 
Hi,

warum hat wenn eine Node weg ist dein Cluster keine Quorum?
Du solltest doch noch 2 Nodes haben?

Wegen der defekten Node würde ich wenn die VM Disk ok ist wie folgt vorgehen.

Installier PVE auf einer neuen Disk und join den Cluster. Wichtig der Node muss einen anderen Namen haben als der defekte.
Dann kannst du die VM Konfig vom alten Node im /etc/pve/nodes/<alten nodename> in den neuen node kopieren.
Danach kanst du den alten node mit pvecm löschen.
 
Hi,
sorry kurz vorher hatte ich ein Problem mit einem weiteren Node. Letzendlich kam der Dienst nicht hoch, was sich schnell beheben lies. Dazwischen hatte ich "dummerweise" expect 1 ausgeführt.
Dein Vorschlag klingt logisch, vorausgesetzt die defekten Sektoren liegen nicht auch dort. Angenommen das ist so, sprich ich kann die Konfig nicht kopieren, gibt es einen Plan C?

edit: die Neuinstallation weiß dann das meine VMs dort im LVMThin liegen? Ich nutze erst seit kurzem LVMThin, davor nur local und da konnte ich die VMs relativ einfach weg kopieren.
 
Last edited:
Ok, habe neu installiert. Das Problem ist nun, dass PVE von hause aus LVMthin installiert. Daher ist nun das neue und das defekte System gleich benannt:
inactive '/dev/pve/swap' [1.75 GiB] inherit
inactive '/dev/pve/root' [3.50 GiB] inherit
inactive '/dev/pve/data' [5.39 GiB] inherit
ACTIVE '/dev/pve/swap' [1.75 GiB] inherit
ACTIVE '/dev/pve/root' [3.50 GiB] inherit
ACTIVE '/dev/pve/data' [5.59 GiB] inherit
Das inaktive nun zu aktivieren, dürfe so ein Problem werden.
 
Hi wolfgang,
ja bin ich dran, allderings kann ich den Unterschied dem aktiven dem inaktiven LVM finden. Ich sehe zwar die unterschiedlichen UUID's kann aber nicht erkennen, welche die von dem aktivem LVM sind.
 
Verwende vgdisplay um die VG UUID zu bekommen.
Die verwendest du dann stat dem alten Namen.
 
Hi,
ja davon spreche ich. vgdisplay zeigt mir bis auf die UUID identische LVM2 Groups. Moment, wo ich es grade schreibe. der Status open LV ist unterschiedlich. Bei einem sind es 0 und beim anderen 2. Dann gehe ich mal davon aus, dass der mit Null der inaktive ist, richtig?
 
Ja sollte so sein.
Außerdem hast du noch Act PV.
Das sollte bei der deaktiven auf 0 sein.
 
Hi,
ist aktuell bei beiden auf 1. Könnte aber daran liegen, dass ich das LVM vor dem rename, schon mal versucht hatte zu aktivieren. Mir war leider nicht klar, dass der Name ein Problem sein könnte.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!