Guten Morgen zusammen,
ich bin gerade dabei mir ein kleines Homelab aufzubauen und hätte dazu ein paar kurze Fragen, speziell was die passende Hardware angeht.
Von meinem Arbeitgeber habe ich günstig drei DELL R620 Server bekommen, welche als Basis dienen sollen. Diese sind generell schon ganz gut ausgestattet, ich denke es fehlt also nicht mehr viel. Folgende Konfig haben die Server:
Zu meinen Fragen:
1. Ich habe gelesen das man Proxmox besser nicht auf den internen SD Karten installiert wie man das etwa für ESXi machen würde. Daher dachte ich mir noch einen PCIe auf M.2 SATA Adapter zu besorgen und dort jeweils zwei günstige M.2 SSDs (ich achte auf MLC Chips) zu verbauen. Ich würde dann dort das Betriebssystem mit einem ZFS Mirror installieren. Macht das überhaupt Sinn oder sollte ich lieber ein oder zwei normale SATA SSDs zusätzlich für das OS einbauen? Platz hab ich für insgesamt 8 2,5 Zoll Platten...
2. Ich würde gerne als Storage CEPH einsetzen wollen. Dazu habe ich die Samsung SM883 SSDs besorgt. Was ich noch nicht ganz verstehe ist, wie ich das Ganze am besten aufbaue. Sollte ich die SSDs alle zusammen in einen Pool stecken und die HDDs in einen anderen? Oder kann ich das irgendwie kombinieren? Ich hatte auch schon überlegt die HDDs lieber als ZFS Replikation einzurichten und dann als langsamen Massenspeicher für die VMs vorzuhalten. Im Prinzip geht es mir nur um eine sinnvolle Nutzung der vorhandenen HDDs. Vom Speicherplatz her sollten mir eigentlich die SSDs schon ausreichen, aber man weiß ja nie...
3. Da ich ja CEPH einsetzen möchte stört mich der DELL PERC RAID Controller. Ich werde diesen daher vom IR Mode in den IT Mode flashen. Macht das Sinn, oder sollte ich mir überlegen einen ordentlichen HBA zu besorgen?
4. Von der Netzwerkseite hatte ich mir überlegt das Storage Netzwerk für CEPH (und die eventuelle ZFS Replikation) über die Onboard 10G Ports laufen zu lassen. Ich würde alle drei Server direkt miteinander verkabeln um möglichst geringe Latenz zu bekommen. Die Cluster Kommunikation und die Kommunikation der einzelnen VMs und Container soll dann über die restlichen beiden Ports der 10G Karte und über den Switch abgehandelt werden. Wobei ich aktuell nur insgesamt 6 DAC Kabel habe. Je drei für die direkte Storage Verkabelung und dann noch einmal je einen pro Server zum Switch. Sollte das nicht für Cluster und VMs reichen kann ich hier ja noch einmal nachlegen. Was meint ihr dazu?
5. Da ich auch vor habe eine virtuelle OPNsense HA Lösung auf dem Cluster aufzubauen habe ich mir die noch freien 1G Ports für die OPNsense VMs aufgehoben. Ich würde die Netzwerkports dann an die VM direkt durchreichen. Macht das Sinn oder habt ihr eine bessere Idee?
6. Und da man ja ab und an auch mal einen NAS Share benötigt wollte ich FreeNAS als virtuelle Maschine auf dem Cluster installieren. Ich habe keine riesigen Datenmengen für das NAS und ich spare mir ein viertes System inkl. Stromverbrauch. Hab mal grob überschlagen, ich komme auf ca. 200-250GB max. für das NAS... Was meint ihr? Bessere Ideen höre ich gerne.
So ich glaube das reicht erst einmal. Ich würde mich echt freuen wenn ihr mir meine Anfängerfragen beantworten könntet damit ich dann bald auch mit dem Aufbau des Homelab beginnen kann.
Vielen Dank schon einmal für die Hilfe.
Gruß
Joe
ich bin gerade dabei mir ein kleines Homelab aufzubauen und hätte dazu ein paar kurze Fragen, speziell was die passende Hardware angeht.
Von meinem Arbeitgeber habe ich günstig drei DELL R620 Server bekommen, welche als Basis dienen sollen. Diese sind generell schon ganz gut ausgestattet, ich denke es fehlt also nicht mehr viel. Folgende Konfig haben die Server:
- 2 x Intel Xeon E5-2670V2 mit je 10 Kernen
- 96GB DDR3 RAM
- 2 x 1,2TB 10k SAS Platten
- DELL PERC H310 Mini
- 1 x Dell Dual SD-Card Flash Modul Reader
- 1 x Dell 10GbE Intel X520 2x SFP+ 2x 1GbE I350 Network Daughter Card
- 1 x LAN Controller 10 Gigabit Intel X520-DA2 Dual Port
Zu meinen Fragen:
1. Ich habe gelesen das man Proxmox besser nicht auf den internen SD Karten installiert wie man das etwa für ESXi machen würde. Daher dachte ich mir noch einen PCIe auf M.2 SATA Adapter zu besorgen und dort jeweils zwei günstige M.2 SSDs (ich achte auf MLC Chips) zu verbauen. Ich würde dann dort das Betriebssystem mit einem ZFS Mirror installieren. Macht das überhaupt Sinn oder sollte ich lieber ein oder zwei normale SATA SSDs zusätzlich für das OS einbauen? Platz hab ich für insgesamt 8 2,5 Zoll Platten...
2. Ich würde gerne als Storage CEPH einsetzen wollen. Dazu habe ich die Samsung SM883 SSDs besorgt. Was ich noch nicht ganz verstehe ist, wie ich das Ganze am besten aufbaue. Sollte ich die SSDs alle zusammen in einen Pool stecken und die HDDs in einen anderen? Oder kann ich das irgendwie kombinieren? Ich hatte auch schon überlegt die HDDs lieber als ZFS Replikation einzurichten und dann als langsamen Massenspeicher für die VMs vorzuhalten. Im Prinzip geht es mir nur um eine sinnvolle Nutzung der vorhandenen HDDs. Vom Speicherplatz her sollten mir eigentlich die SSDs schon ausreichen, aber man weiß ja nie...
3. Da ich ja CEPH einsetzen möchte stört mich der DELL PERC RAID Controller. Ich werde diesen daher vom IR Mode in den IT Mode flashen. Macht das Sinn, oder sollte ich mir überlegen einen ordentlichen HBA zu besorgen?
4. Von der Netzwerkseite hatte ich mir überlegt das Storage Netzwerk für CEPH (und die eventuelle ZFS Replikation) über die Onboard 10G Ports laufen zu lassen. Ich würde alle drei Server direkt miteinander verkabeln um möglichst geringe Latenz zu bekommen. Die Cluster Kommunikation und die Kommunikation der einzelnen VMs und Container soll dann über die restlichen beiden Ports der 10G Karte und über den Switch abgehandelt werden. Wobei ich aktuell nur insgesamt 6 DAC Kabel habe. Je drei für die direkte Storage Verkabelung und dann noch einmal je einen pro Server zum Switch. Sollte das nicht für Cluster und VMs reichen kann ich hier ja noch einmal nachlegen. Was meint ihr dazu?
5. Da ich auch vor habe eine virtuelle OPNsense HA Lösung auf dem Cluster aufzubauen habe ich mir die noch freien 1G Ports für die OPNsense VMs aufgehoben. Ich würde die Netzwerkports dann an die VM direkt durchreichen. Macht das Sinn oder habt ihr eine bessere Idee?
6. Und da man ja ab und an auch mal einen NAS Share benötigt wollte ich FreeNAS als virtuelle Maschine auf dem Cluster installieren. Ich habe keine riesigen Datenmengen für das NAS und ich spare mir ein viertes System inkl. Stromverbrauch. Hab mal grob überschlagen, ich komme auf ca. 200-250GB max. für das NAS... Was meint ihr? Bessere Ideen höre ich gerne.
So ich glaube das reicht erst einmal. Ich würde mich echt freuen wenn ihr mir meine Anfängerfragen beantworten könntet damit ich dann bald auch mit dem Aufbau des Homelab beginnen kann.
Vielen Dank schon einmal für die Hilfe.
Gruß
Joe