Verständinsproblem local-lvm

thomas0815

New Member
Feb 5, 2026
3
0
1
Hallo!

Im Moment arbeitet ich mich gerade in Proxmox ein - und habe bereits einen Cluster gegründet.

Die Testumgebung sieht wiefolgt aus:

HP DL380 G9 mit SAS HDD im RAID5
Auf dem Raid 5 läuft direkt proxmox und die VMs liegen unter local-lvm.

HP DL380 G10 mit kleinem RAID1 für Proxmox und großen DISKs als RAID5 für die VMs

Die beiden Server laufen bereits in einem Cluster.
Der G10 hat noch keine VMs im Speicher.

Wenn ich jetzt die VMs migriere, landen diese immer im kleine RAID1 / local-lvm, welche eigentlich nur proxmox beherbergen soll.
Ich würde aber gerne die VMs in den großen RAID5 Speicher migrieren. (ebenfalls lvm-thin mit DISK-Image und Container)

Meinen Überlegung wär, einfach den local-lvm speicher am G10 zu deaktivieren, aber da erscheint beim Migrieren immer eine Fehlermeldung.
Oder auch einfach den Speicher umzubennen in der storage.cfg, aber das wirkt sich ja auch alle Nodes aus.

Wie wäre da die richige Vorgehensweise für eine solche Migration?

Wenn noch mehr Infos benötigt werden - bitte einfach bescheid geben :)

Danke,
thomas0815
 
LVM-Thin eignet sich nicht als Shared Storage. Vielleicht funktioniert es, wenn du stattdessen LVM oder NFS nutzt.

Wenn auf das LVM-Thin mehrere Hosts zugreifen, dann kann das Volume bei gleichzeitigem Zugriff nicht erweitert werden. Deshalb wird es wohl nicht supported sein.
 
Last edited:
Hallo!

Im Moment arbeitet ich mich gerade in Proxmox ein - und habe bereits einen Cluster gegründet.

Die Testumgebung sieht wiefolgt aus:

HP DL380 G9 mit SAS HDD im RAID5
Auf dem Raid 5 läuft direkt proxmox und die VMs liegen unter local-lvm.

HP DL380 G10 mit kleinem RAID1 für Proxmox und großen DISKs als RAID5 für die VMs

Die beiden Server laufen bereits in einem Cluster.
Der G10 hat noch keine VMs im Speicher.

Wenn ich jetzt die VMs migriere, landen diese immer im kleine RAID1 / local-lvm, welche eigentlich nur proxmox beherbergen soll.
Ich würde aber gerne die VMs in den großen RAID5 Speicher migrieren. (ebenfalls lvm-thin mit DISK-Image und Container)

Meinen Überlegung wär, einfach den local-lvm speicher am G10 zu deaktivieren, aber da erscheint beim Migrieren immer eine Fehlermeldung.
Oder auch einfach den Speicher umzubennen in der storage.cfg, aber das wirkt sich ja auch alle Nodes aus.

Wie wäre da die richige Vorgehensweise für eine solche Migration?

Wenn noch mehr Infos benötigt werden - bitte einfach bescheid geben :)

Danke,
thomas0815
Hi, lösche einfach den LVM-Thinpool auf deiner OS Disk, am besten gleich die Root Partition vergrößern:
Code:
lvremove /dev/pve/data
lvresize -l +100%FREE /dev/pve/root
resize2fs /dev/mapper/pve-root
Danach den anderen Thinpool löschen und mit dem gleichen Namen die der original Pool wieder anlegen.
Dann hast du auf beiden Hosts gleiche Thin Pools und er kopiert die VM Disks dann immer auf das richtige Raid Volume.
Das ist nicht dolle, aber funktioniert.
Besser wäre ZFS mit Replication, aber dafür müsstest du alles noch einmal komplett umbauen.

P.S. hast du wenigstens ein Quorum für deinen Cluster?
 
Hi,

vielen Dank für den Input :)

Ich konnte mit dem Code von Falk R. den LVM-Thinpool entfernen - aber beim Versuch des neu anlegens kommet immer die Meldung:
Storage ID "local-lvm" already exists on node "HOSTNAME" (500)

Irgendwo scheint es da noch Reste zu geben, aktuell bin ich auf der Suche.

Quorum im Moment noch nicht, es soll aber ein dritter Server folgen :)

ZFS habe ich mir schon angesehen, ist defintiv die Zukunft - aber erst dann auf neuer Hardware :)

Vielen Dank!
 
Kann es sein, dass dies einfach nicht möglich ist?

In der /etc/pve/storage.cfg (welche ja für alle nodes im cluster gültig ist) gibt es ja den Eintrag;

lvmthin: local-lvm
thinpool data
vgname pve
content rootdir, images

Und wenn ich den thinpool data anlege, passt die Volumengruppe dann nicht - die müssste pve lauten, heißt aber dann data.