Ich bräuchte mal eine Einschätzung bzw Empfehlung wie ich mein neues Setup hier im homelab am besten einrichten soll.
Bin mal irgendwann vor Jahren von vsphere auf proxmox umgestiegen und wahrscheinlich teilweise ganz schön am frickeln.
Mein bisheriges Setup sieht folgendermaßen aus:
Ich nutze einen dedizierten 10G switch für den storage. Die server sind alle per dac mit iscsi angebunden.
Xigmanas (2 Xeons/128GBRAM, SSDs mit plp) stellt zwei LUNs zur Verfügung. Eines aus 4 SSDs (2 striped mirrors mit darauf angelegtem volume) und eines aus 6 HDDs (raidz2).
Proxmox (2 Xeons/128GBRAM, alter dl360g8) hat das System auf 2 SSDs (raid1 vom hp controller). Vom SSD Volume bekommt er per iscsi ein extent als vmspeicher durchgereicht. Die ist im LVM verfügbar für die virtuellen Maschinen. Es laufen so 15 Maschinen plus immer wieder Testumgebungen aus bis zu 5 Maschinen. Einige mit Windows, einige mit Linux.
Da ich eine AD mit Windows Server für die Clients nutze, setze ich NTFS Dateiberechtigungen ein. Daher ist ein extent im HDD Pool per iscsi an eine vm angebunden, auf der Windoof Server läuft. Diese stellt das NTFS formatierte Datengrab per cifs mit DFS-Namespaces den Clients zur Verfügung.
Funktioniert so alles seit 5 Jahren. Geschwindigkeit vom Datengrab ist so bei 80MB/s über Gigabit von den clients aus. Datenträger können ohne Probleme im xigmanas ersetzt werden. Snapshots nutze ich bisher nicht aber nach meiner Meinung hab ich durchs ZFS einen Schutz vor bitrot. Die Homevideos der letzten 50 Jahre (auch digitalisierte super8 aus den 70ern) liegen sicherer als im hw-raid. Backups finden extern statt.
Ja, wie gesagt ist gefrickelt...
Jetzt zum neuen Setup, ich habe folgende HW zur Verfügung:
neues Blech mit 2 AMD 16 core Epics / 256GB RAM. Netzwerk belibt erstmal bei 10G. Für die vms 4 U2 NVME SSDs (2 weitere als coldspare im Schrank) und zwei SATA SSDs mit plp fürs System. Im Server bringe ich auch noch ein RMS-200 (8GB) unter. Das Radian liegt hier sonst nur rum und ein Slot ist frei. Datengrab mit 6x HDD könnte direkt in den Proxmox, einfach wieder an einen HBA.
Idee war jetzt das Proxmox System auf die 2 SSDs. Welches System zsf mirror oder lieber sw raid? Mit swap scheint es da Probleme zu geben. Gelesen hab ich schon einiges, aber wohl nicht genug. Die 4 NVME sollen als striped mirrors direkt im proxmox als VMstorage genutzt werden.
Den HBA mit den HDDs wollte ich an ein virtualisiertes xigmanas durchreichen, dort wie gewohnt ZFS und wieder ein extent als Ziel für den Windows Fileserver per iscsi raus. Oder sollte man eher per NFS/Samba an die Clients. Allerdings hätte ich dann wieder das Problem mit der Rechteverwaltung. Das geht halt mit den NTFS Rechten schon sehr schnell.
Den 8GB Radian hatte ich mal testweise als SLOG eingesetzt. War jetzt nicht wirklich notwendig, außerdem fehlt für den Dauereinsatz die Redundanz. Würde ihn aber an eine virtuelle Windowsmaschine durchreichen als scratch disk.
Insgesamt spare ich mir einen dauernd laufenden Server (altes xigmanas) bzw kann das für backupzwecke mal gezielt hochfahren.
Und nu? Welches Dateisystem für pve? Gesamtaufbau komplett daneben? Welche ZFS Features gehen mir flöten, sollte ich aber nutzen?
Bin für alles offen.
Bin mal irgendwann vor Jahren von vsphere auf proxmox umgestiegen und wahrscheinlich teilweise ganz schön am frickeln.
Mein bisheriges Setup sieht folgendermaßen aus:
Ich nutze einen dedizierten 10G switch für den storage. Die server sind alle per dac mit iscsi angebunden.
Xigmanas (2 Xeons/128GBRAM, SSDs mit plp) stellt zwei LUNs zur Verfügung. Eines aus 4 SSDs (2 striped mirrors mit darauf angelegtem volume) und eines aus 6 HDDs (raidz2).
Proxmox (2 Xeons/128GBRAM, alter dl360g8) hat das System auf 2 SSDs (raid1 vom hp controller). Vom SSD Volume bekommt er per iscsi ein extent als vmspeicher durchgereicht. Die ist im LVM verfügbar für die virtuellen Maschinen. Es laufen so 15 Maschinen plus immer wieder Testumgebungen aus bis zu 5 Maschinen. Einige mit Windows, einige mit Linux.
Da ich eine AD mit Windows Server für die Clients nutze, setze ich NTFS Dateiberechtigungen ein. Daher ist ein extent im HDD Pool per iscsi an eine vm angebunden, auf der Windoof Server läuft. Diese stellt das NTFS formatierte Datengrab per cifs mit DFS-Namespaces den Clients zur Verfügung.
Funktioniert so alles seit 5 Jahren. Geschwindigkeit vom Datengrab ist so bei 80MB/s über Gigabit von den clients aus. Datenträger können ohne Probleme im xigmanas ersetzt werden. Snapshots nutze ich bisher nicht aber nach meiner Meinung hab ich durchs ZFS einen Schutz vor bitrot. Die Homevideos der letzten 50 Jahre (auch digitalisierte super8 aus den 70ern) liegen sicherer als im hw-raid. Backups finden extern statt.
Ja, wie gesagt ist gefrickelt...
Jetzt zum neuen Setup, ich habe folgende HW zur Verfügung:
neues Blech mit 2 AMD 16 core Epics / 256GB RAM. Netzwerk belibt erstmal bei 10G. Für die vms 4 U2 NVME SSDs (2 weitere als coldspare im Schrank) und zwei SATA SSDs mit plp fürs System. Im Server bringe ich auch noch ein RMS-200 (8GB) unter. Das Radian liegt hier sonst nur rum und ein Slot ist frei. Datengrab mit 6x HDD könnte direkt in den Proxmox, einfach wieder an einen HBA.
Idee war jetzt das Proxmox System auf die 2 SSDs. Welches System zsf mirror oder lieber sw raid? Mit swap scheint es da Probleme zu geben. Gelesen hab ich schon einiges, aber wohl nicht genug. Die 4 NVME sollen als striped mirrors direkt im proxmox als VMstorage genutzt werden.
Den HBA mit den HDDs wollte ich an ein virtualisiertes xigmanas durchreichen, dort wie gewohnt ZFS und wieder ein extent als Ziel für den Windows Fileserver per iscsi raus. Oder sollte man eher per NFS/Samba an die Clients. Allerdings hätte ich dann wieder das Problem mit der Rechteverwaltung. Das geht halt mit den NTFS Rechten schon sehr schnell.
Den 8GB Radian hatte ich mal testweise als SLOG eingesetzt. War jetzt nicht wirklich notwendig, außerdem fehlt für den Dauereinsatz die Redundanz. Würde ihn aber an eine virtuelle Windowsmaschine durchreichen als scratch disk.
Insgesamt spare ich mir einen dauernd laufenden Server (altes xigmanas) bzw kann das für backupzwecke mal gezielt hochfahren.
Und nu? Welches Dateisystem für pve? Gesamtaufbau komplett daneben? Welche ZFS Features gehen mir flöten, sollte ich aber nutzen?
Bin für alles offen.