Guten Abend zusammen,
leider habe ich mich erst eine Weile nach Inbetriebnahme des ersten Proxmox Mini-PCs für einen zusätzlichen zweiten Mini-PC entschieden, weshalb ich die Nodes leider ohne ZFS installiert habe und nun im Clusterbetrieb keine Replikation zwischen den Nodes möglich ist.
Die TLDNR-Freunde können gern direkt runter zu meiner Frage springen
Noch etwas Background zum Einsatzszenario:
Das Setting ist mein Homelab (bestehend u.a. Home Assistant, Paperless NGX, Pi-Hole, AdGuard Home, UniFi etc., teilw. KWM, teilw. LXC)
Hardware: 2x lüfterlose Homelab-Mini-PC intel N100, 32GB RAM, 1 TB NVME, 4x 2.5 Gbps NIC
Praktisch sind hier auch die 4x 2.5gbps NICs je PC, so ist gut die physikalische Trennung von Anwendungs-, Management-, Corosync- und Migration-Traffic möglich, aber das ist ein anderes Thema.
Für ZFS wäre die Hardware eigentlich auch unterdimensioniert, aber ich würde gern die Möglichkeit der Replikation zwischen den Nodes nutzen, für die meisten der VMs/LXC wird eine Replikation alle 24 Stunden genügen.
Aktuell laufen beide Nodes in einem Proxmox-Cluster (v8.3, ein Raspberry übernimmt das QDevice fürs Quorum.
Frage:
Bei der Installation des Proxmox-Nodes habe ich den Default-Vorschlag übernommen und nun die gesamte NVME (1 TB) für den LVM bzw. die Volume-Group PVE verwendet.
Besteht die Möglichkeit, diese Volume-Group minimal zu verkleinern, um anschließend die Partition 3 ebenso zu verkleinern, dann eine zusätzliche Partition (850-900GB) für ZFS anlegen und einen ZFS-Pool darauf anlegen, das Ganze ohne Neuinstallation/Datenverlust? Die VMs und Container könnte man solange auf den zweiten Node migrieren.
Oder macht ZFS mit der Hardware keinen Sinn?
Falls Ihr habt, gern auch eine alternative Vorgehensweise. Alles willkommen.
Das Ziel sollte sein, die replizierten VMs/Container bei Ausfall eines Nodes auf dem anderen Node hochfahren zu können.
Und kann jemand von Euch abschätzen, wie sich in diesem Setup die Performance mit ZFS vs Ext4 negativ bemerkbar machen würde?
Unten zum Ausklappen die Ausgabe der Befehle pvdisplay, vgdisplay sowie fdisk,
Viele Grüße und Danke für Eure Antworten.
leider habe ich mich erst eine Weile nach Inbetriebnahme des ersten Proxmox Mini-PCs für einen zusätzlichen zweiten Mini-PC entschieden, weshalb ich die Nodes leider ohne ZFS installiert habe und nun im Clusterbetrieb keine Replikation zwischen den Nodes möglich ist.
Die TLDNR-Freunde können gern direkt runter zu meiner Frage springen
Noch etwas Background zum Einsatzszenario:
Das Setting ist mein Homelab (bestehend u.a. Home Assistant, Paperless NGX, Pi-Hole, AdGuard Home, UniFi etc., teilw. KWM, teilw. LXC)
Hardware: 2x lüfterlose Homelab-Mini-PC intel N100, 32GB RAM, 1 TB NVME, 4x 2.5 Gbps NIC
Praktisch sind hier auch die 4x 2.5gbps NICs je PC, so ist gut die physikalische Trennung von Anwendungs-, Management-, Corosync- und Migration-Traffic möglich, aber das ist ein anderes Thema.
Für ZFS wäre die Hardware eigentlich auch unterdimensioniert, aber ich würde gern die Möglichkeit der Replikation zwischen den Nodes nutzen, für die meisten der VMs/LXC wird eine Replikation alle 24 Stunden genügen.
Aktuell laufen beide Nodes in einem Proxmox-Cluster (v8.3, ein Raspberry übernimmt das QDevice fürs Quorum.
Frage:
Bei der Installation des Proxmox-Nodes habe ich den Default-Vorschlag übernommen und nun die gesamte NVME (1 TB) für den LVM bzw. die Volume-Group PVE verwendet.
Besteht die Möglichkeit, diese Volume-Group minimal zu verkleinern, um anschließend die Partition 3 ebenso zu verkleinern, dann eine zusätzliche Partition (850-900GB) für ZFS anlegen und einen ZFS-Pool darauf anlegen, das Ganze ohne Neuinstallation/Datenverlust? Die VMs und Container könnte man solange auf den zweiten Node migrieren.
Oder macht ZFS mit der Hardware keinen Sinn?
Falls Ihr habt, gern auch eine alternative Vorgehensweise. Alles willkommen.
Das Ziel sollte sein, die replizierten VMs/Container bei Ausfall eines Nodes auf dem anderen Node hochfahren zu können.
Und kann jemand von Euch abschätzen, wie sich in diesem Setup die Performance mit ZFS vs Ext4 negativ bemerkbar machen würde?
Unten zum Ausklappen die Ausgabe der Befehle pvdisplay, vgdisplay sowie fdisk,
Viele Grüße und Danke für Eure Antworten.
--- Physical volume ---
PV Name /dev/nvme0n1p3
VG Name pve
PV Size 930.51 GiB / not usable 4.69 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 238210
Free PE 4096
Allocated PE 234114
PV UUID sbfdzz-bcdfj-yvxF-Z22B-8yR3-zEdL-G253Rs
root@pve1:~# vgdisplay
--- Volume group ---
VG Name pve
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 338
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 19
Open LV 12
Max PV 0
Cur PV 1
Act PV 1
VG Size <930.51 GiB
PE Size 4.00 MiB
Total PE 238210
Alloc PE / Size 234114 / <914.51 GiB
Free PE / Size 4096 / 16.00 GiB
VG UUID JFrrcO-1ISC-2Msdf-6sH-Zdfm-pCdf9-fkMM3
Disk /dev/nvme0n1: 931.51 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 0E13CBEF-8778-4DA4-8C13-2141B
Device Start End Sectors Size Type
/dev/nvme0n1p1 34 2047 2014 1007K BIOS boot
/dev/nvme0n1p2 2048 2099199 2097152 1G EFI System
/dev/nvme0n1p3 2099200 1953525134 1951425935 930.5G Linux LVM
PV Name /dev/nvme0n1p3
VG Name pve
PV Size 930.51 GiB / not usable 4.69 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 238210
Free PE 4096
Allocated PE 234114
PV UUID sbfdzz-bcdfj-yvxF-Z22B-8yR3-zEdL-G253Rs
root@pve1:~# vgdisplay
--- Volume group ---
VG Name pve
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 338
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 19
Open LV 12
Max PV 0
Cur PV 1
Act PV 1
VG Size <930.51 GiB
PE Size 4.00 MiB
Total PE 238210
Alloc PE / Size 234114 / <914.51 GiB
Free PE / Size 4096 / 16.00 GiB
VG UUID JFrrcO-1ISC-2Msdf-6sH-Zdfm-pCdf9-fkMM3
Disk /dev/nvme0n1: 931.51 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 0E13CBEF-8778-4DA4-8C13-2141B
Device Start End Sectors Size Type
/dev/nvme0n1p1 34 2047 2014 1007K BIOS boot
/dev/nvme0n1p2 2048 2099199 2097152 1G EFI System
/dev/nvme0n1p3 2099200 1953525134 1951425935 930.5G Linux LVM
Last edited: