LVG verkleinern, um Platz für zus. Partition für ZFS zu schaffen?

Jan 13, 2025
2
0
1
Guten Abend zusammen,

leider habe ich mich erst eine Weile nach Inbetriebnahme des ersten Proxmox Mini-PCs für einen zusätzlichen zweiten Mini-PC entschieden, weshalb ich die Nodes leider ohne ZFS installiert habe und nun im Clusterbetrieb keine Replikation zwischen den Nodes möglich ist.
Die TLDNR-Freunde können gern direkt runter zu meiner Frage springen ;)

Noch etwas Background zum Einsatzszenario:
Das Setting ist mein Homelab (bestehend u.a. Home Assistant, Paperless NGX, Pi-Hole, AdGuard Home, UniFi etc., teilw. KWM, teilw. LXC)
Hardware: 2x lüfterlose Homelab-Mini-PC intel N100, 32GB RAM, 1 TB NVME, 4x 2.5 Gbps NIC
Praktisch sind hier auch die 4x 2.5gbps NICs je PC, so ist gut die physikalische Trennung von Anwendungs-, Management-, Corosync- und Migration-Traffic möglich, aber das ist ein anderes Thema.
Für ZFS wäre die Hardware eigentlich auch unterdimensioniert, aber ich würde gern die Möglichkeit der Replikation zwischen den Nodes nutzen, für die meisten der VMs/LXC wird eine Replikation alle 24 Stunden genügen.
Aktuell laufen beide Nodes in einem Proxmox-Cluster (v8.3, ein Raspberry übernimmt das QDevice fürs Quorum.

Frage:
Bei der Installation des Proxmox-Nodes habe ich den Default-Vorschlag übernommen und nun die gesamte NVME (1 TB) für den LVM bzw. die Volume-Group PVE verwendet.

Besteht die Möglichkeit, diese Volume-Group minimal zu verkleinern, um anschließend die Partition 3 ebenso zu verkleinern, dann eine zusätzliche Partition (850-900GB) für ZFS anlegen und einen ZFS-Pool darauf anlegen, das Ganze ohne Neuinstallation/Datenverlust? Die VMs und Container könnte man solange auf den zweiten Node migrieren.
Oder macht ZFS mit der Hardware keinen Sinn?
Falls Ihr habt, gern auch eine alternative Vorgehensweise. Alles willkommen. :)
Das Ziel sollte sein, die replizierten VMs/Container bei Ausfall eines Nodes auf dem anderen Node hochfahren zu können.
Und kann jemand von Euch abschätzen, wie sich in diesem Setup die Performance mit ZFS vs Ext4 negativ bemerkbar machen würde?

Unten zum Ausklappen die Ausgabe der Befehle pvdisplay, vgdisplay sowie fdisk,

Viele Grüße und Danke für Eure Antworten.


--- Physical volume ---
PV Name /dev/nvme0n1p3
VG Name pve
PV Size 930.51 GiB / not usable 4.69 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 238210
Free PE 4096
Allocated PE 234114
PV UUID sbfdzz-bcdfj-yvxF-Z22B-8yR3-zEdL-G253Rs

root@pve1:~# vgdisplay
--- Volume group ---
VG Name pve
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 338
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 19
Open LV 12
Max PV 0
Cur PV 1
Act PV 1
VG Size <930.51 GiB
PE Size 4.00 MiB
Total PE 238210
Alloc PE / Size 234114 / <914.51 GiB
Free PE / Size 4096 / 16.00 GiB
VG UUID JFrrcO-1ISC-2Msdf-6sH-Zdfm-pCdf9-fkMM3

Disk /dev/nvme0n1: 931.51 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 0E13CBEF-8778-4DA4-8C13-2141B

Device Start End Sectors Size Type
/dev/nvme0n1p1 34 2047 2014 1007K BIOS boot
/dev/nvme0n1p2 2048 2099199 2097152 1G EFI System
/dev/nvme0n1p3 2099200 1953525134 1951425935 930.5G Linux LVM
 
Last edited:
Also ZFS ohne Mirror - Raid1 ist ohne Sinn.
Ein Backup aller vm und lxc machen und extern zwischen speichern. Und anschließend alles neu auf 2 Datenträger installieren.
 
Ich würde wie News vorschlägt, alle VMs sichern und dann mit ZFS neu installieren. Aber vorsicht mit den günstigen Consumer SSDs, die werden oft schnell kaputt geschrieben von ZFS.
 
Danke für Eure Antworten.

Mirror ist leider keine wirkliche Option, da die Mini PCs nur je einen M.2 2280 NVME Slot haben.

Es gibt auch noch einen SATA-Anschluss, damit könnte man zwar spiegeln, würde aber die gute NVME-Performance vernichten.

Neuinstallieren wollte ich ja vermeiden, aber scheint vermutlich der sinnvollste Weg.
Wenn aber doch, würde ich für jeden Node eine Enterprise M.2 NVME mit 2-3 DWDP und Power Loss Prevention kaufen.

Alternativ (und ohne ZFS) bliebe sonst nur „manuelles replizieren“ per vzdump auf den anderen Node, das ist aber auch meh.

Ich wollte es ja unbedingt klein und lüfterlos haben, muss aber jetzt halt damit leben, dass das Setup keine Redundanzen bietet. Daher ja die Idee mit dem zweiten Node und Replikation…
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!