Unterstützung zu Aufbau meines Homeservers mit Proxmox

Andy07

New Member
Aug 31, 2020
13
0
1
52
Hallo,

ich suche Unterstützung zu Aufbau meines Homeservers mit Proxmox. Folgende Hardware steht zur Verfügung.

Zusammenstellung Homeserver:

Mainboard: ASRockB450M Pro
CPU: AMD Ryzan TM 3200G
Ram: Crusal 2 x 16 GB 2666 ECC



Festplatten:

M2: Samsung MZ-V7P512BW 970 PRO 512 GB NVMe M.2
SSD: WD Red 500 GB
HDD: Seagate IronWolf 4TB
HDD: Seagate IronWolf 4TB
HDD: Seagate IronWolf 4TB
HDD: Seagate IronWolf 4TB
HDD: HGDT 3TB
HDD: HGDT 3TB



Ich habe ein wenig mit Proxmox rumexperimentiert, leider fehlen mir da noch grundlegende Erfahrungen.

Meine Vorstellung :

  1. Installation Proxmox auf der WD Red 500 GB (SSD) – ist schon passiert
  2. OMV als VM in Proxmox.
… und jetzt komme ich mit meinen Experimenten nicht weiter. Es geht um eine sinnvolle Einbindung der Festplatten.

Ich stelle mir für OMV 4-5 Ordner vor (DATA, Bilder, Videos, usw. – Gesamt benötigt ca. 8 TB ) Bei meinen Tests hatte ich 2 Platten als Mirror direkt in Proxmox angelegt, die ich in OMV zur Verfügung gestellt habe.

Ich würde aber für das Produktivsystem (OMV) lieber ein Raid System aus den 4x4TB Platten verwenden. Muss ich dafür die Platten an OMV durchreichen um sie dann in OMV als Raid zusammen zu fassen, oder geht das auch anders. Welches Raid-system empfehlt ihr? Wie funktioniert das Catchen dafür wäre doch die Samsung 970 Pro perfekt?

Wie ist die Performens eines solchen Gebildes eigentlich?

Könnt ihr mir eine Empfehlung für eine sinnvolle Konfiguration geben? Ich weiß, aufgrund meiner Recherchen, dass das sehr schwierig sein wird. Dennoch hoffe ich auf ein paar zweckdienliche Hinweise.



Zum weiteren Ausbau sei noch zu sagen, dass ich perspektivisch auch meine IP-Cam Aufzeichnung über den Server laufen lassen möchte. Kann mir da vielleicht auch jemand helfen? Ich habe da mal was von Docker gelesen mit entsprechenden Apps??? Ein guter Link zu dem Thema wäre auch schon gut.

Ansonsten würde ich ein paar VM´s laufen lassen (windows, linux und andere Testsysteme), Vielleicht auch eine Anbindung an meinen FHEM Server für Datenbanken, oder was ist mit KODI oder ein Streaming Server.

Aber am Anfang soll es sich Hauptsächlich erst einmal um OMV handeln …und dann Step by Step .



Danke schon mal für eure Bemühungen



Gruß

André
 
Schließe mich hier mal an, da ich selbst am überlegen bin wie ich eine "Netzlaufwerk" Funktionalität zur Verfügung stellen kann. Möchte hierfür ggf. auch OMV einsetzen, jedoch sehe ich den Vorteil nicht die Platten an die VM direkt durchzureichen, den somit fallen sämtliche Funktionen des Hypervisors weg. (Snapshots, Backup, HA...)
Oder bin ich hier komplett falsch, dann bitte um Korrektur.

mfg
 
Was spricht denn dagegen, den Host selbst für die statischen Shares zu nutzen? Man kann die ZFS-Snapshots als Windows-Schattenkopien bereitstellen.
 
Ich persönlich habe auf meinem kleinen Server Zuhause zwar auch ein PVE installiert, sehe es in dem Fall aber eher als Linux Distribution die ZFS gleich mitliefert und bei Bedarf auch einfach VMs und Container managen kann und nicht primär als Hypervisor.

Wenn man für die Netzwerkshares nicht zwingend eine WebGUI braucht und kein Problem hat, hin und wieder mal die Config von Hand anzufassen (passiert bei mir alle paar Jahre mal) dann sehe ich auch kein Problem die Shares direkt am PVE Host einzurichten. So habe ich es zumindest bei mir.

Sollten die Shares auf einem ZFS Pool liegen kann man sich mit diversen auto-snapshotting tools die Snapshots erstellen. Wenn man dann noch ein wenig aufs Namensschema der Snapshots achtet, kann man sie via Samba exportieren damit der Windows Explorer diese als "frühere Versionen" (oder wie das genau heißt) erkennt.

Das Ganze ist natürlich nur bei einem Single-Node Setup machbar. Aber das gilt genauso für das direkte Durchreichen der Festplatten an eine FreeNAS oder OMV VM, ist nur deutlich weniger kompliziert. Sobald man sowas in einem Cluster braucht, bleibt einem eh nichts anderes übrig und man braucht die Abstraktion der virtuellen Festplatten um die VM auf eine andere Node migrieren zu können.
 
Hi Andrè,

für Deine ersten Erfahrungen mit PVE empfehle ich Dir, einen möglichst einfachen Aufbau zu wählen. Ich würde mit Deiner Hardware folgendes anstellen:

1. WD Red 500 GB (SSD) für PVE selbst (hast Du ja schon gemacht)
2. Die 4x 4 TB HDDs zu einem ZFS RAID-10 mit der M.2 NVMe als Cache zusammenfassen
3. Die 2x 3 TB HDDs zu irgendeinem weiteren Storage (als ZFS RAID-0 oder -1) zusammenfassen

Der große Storage könnte dann Dein produktiver Storage mit all Deinen VMs sein, und mit dem kleinen Storage kannst Du herumspielen, verschiedene Storage-Arten, RAID-Level, etc. ausprobieren.

Und Du hattest nach einem Server-Backend für Deine IP-Kamera gefragt: Ich verwende ganz gerne Zoneminder (auf einem Debian).

Viel Spaß und liebe Grüße
Stephan
 
Hallo Stephan,

ja, neben Alltagsstress geht es jetzt mal wieder an das Projekt Homeserver/NAS. Ein Dank zunächst aber auch die anderen hier in der Runde.

Wie ich sehe liege ich nicht so weit weg von einer Finalen Lösung und genau wie es Stephan anmerkt, soll der Aufbau auch einfach gehalten werden.

Doch nun zu meinen weiteren Fragen:

Die 500 GB WD (SSD) ist bereits mit PVE versorgt. Ich hatte mir bisher immer überlegt, auch die VM`s auf eben dieser zu betreiben, da ich hier Die Performens (Geschwindigkeit) gesehen habe. Allerdings würde mir einleuchten, tatsächlich das produktive Raid-Storage zu nutzen – jetzt eben wegen der Ausfallsicherheit im Raid-System.

  • Wieviel Storage bleibt aus den 4 x 4 TB Platten übrig, wenn ich ein ZFS-Raid10 anlege, und was würde gegen ein ZFS Raid5 sprechen
  • Wie funktioniert das Cachen mit der M.2NVMe auf dem PVE und wie hoch ist ungefähr der Geschwindigkeitszuwachs? (Hab da noch nichts richtiges gefunden)?
  • Ich möchte eine gute Plattenüberwachung der gesamten Festplatten, aufgrund zweier Totalausfälle meines alten WHS2011, am besten per Push oder per Mail. Ist dies realisierbar. Ich habe beim Experimentieren bemerkt, dass es leichter war das Ganze zu händeln, als ich die Platten an die VM’s durchgereicht habe. Gibt es da vielleicht ein paar Hinweise zum Handling, oder hab ich was übersehen?
  • Eine ganz entscheidende Frage ist jetzt auch, wie ich eine Backupstrategie für das Produktivsystem angehe?
Wie geschrieben, das hier ist für mich alles Neuland und ich hatte leider keine richtige Zeit mich langsam darauf einzuschießen, da mein alter Homeserver von Heut auf Morgen den Geist aufgegeben hat (Netzteilschaden und dabei zwei Festlatten abgeschossen.) ☹



Ach, Stephan danke für den Tipp mit Zoneminder, den hatte ich auch schon am Wickel. Hatte ihn versucht über Docker zu installieren, aber bin dann auch hängen geblieben, weil das Grundkonzept wichtiger war.



Einen schönen Abend in die Runde und Danke für weitere Hinweise

Gruß André
 
Wieviel Storage bleibt aus den 4 x 4 TB Platten übrig, wenn ich ein ZFS-Raid10 anlege, und was würde gegen ein ZFS Raid5 sprechen
ca. 8TB.
Ein ZFS-RAIDZ (entspricht ungefähr einem klassischen RAID-5) würde Dir ca. 12 TB zur Verfügung stellen. Hauptnachteil sind Performanceeinbußen bei kleinen, verteilten Lesevorgängen - also das, was Datenbanken gerne tun. In der Tat existiert seit vielen Jahren die Empfehlung, Datenbanken never ever auf ein RAID-5 zu machen. Hier gibt es einen kleinen Überblick über die Vor- und Nachteile der verschiedenen ZFS RAID levels.

Wie funktioniert das Cachen mit der M.2NVMe auf dem PVE und wie hoch ist ungefähr der Geschwindigkeitszuwachs? (Hab da noch nichts richtiges gefunden)?
Wie man's einrichtet, ist hier beschrieben. Über den Geschwindigkeitszuwachs kann ich nichts sagen, weil ich kein vergleichbares Setup am Start habe. Aber ich würde sagen: Ein Versuch lohnt sich! :)

Ich möchte eine gute Plattenüberwachung der gesamten Festplatten, aufgrund zweier Totalausfälle meines alten WHS2011, am besten per Push oder per Mail. Ist dies realisierbar. Ich habe beim Experimentieren bemerkt, dass es leichter war das Ganze zu händeln, als ich die Platten an die VM’s durchgereicht habe. Gibt es da vielleicht ein paar Hinweise zum Handling, oder hab ich was übersehen?
Grundsätzlich lässt sich ZFS sehr gut monitoren. Das Problem dürfte sein, etwas Schlankes zu finden, dass Dir nützt. Bei dieser Aufgabenstellung wird in der Regel eher "enterprisy" gedacht und vorausgesetzt, dass bereits ein Monitoring-System existiert.
Auf die Schnelle habe ich das hier gefunden: https://github.com/rouben/zfswatcher
Das wurde zwar schon eine Weile nicht mehr angefasst, aber einen Versuch ist es wert, finde ich.

Eine ganz entscheidende Frage ist jetzt auch, wie ich eine Backupstrategie für das Produktivsystem angehe?
Wohin möchtest Du sichern? Auf die gleiche Kiste? An ein anderes netzwerkfähiges Gerät? Auf einen Storage, der via USB o.ä. an die Kiste angebunden ist?

Wie geschrieben, das hier ist für mich alles Neuland und ich hatte leider keine richtige Zeit mich langsam darauf einzuschießen, da mein alter Homeserver von Heut auf Morgen den Geist aufgegeben hat (Netzteilschaden und dabei zwei Festlatten abgeschossen.) ☹
F*** :oops:
Auch das spricht finde ich dafür, jetzt "schnell und einfach" ein gutes Setup hinzubekommen, damit die VMs wieder laufen können. ZFS-Monitoring und eine angemessene Backupsstrategie haben auch danach noch Zeit.

Ach, Stephan danke für den Tipp mit Zoneminder, den hatte ich auch schon am Wickel. Hatte ihn versucht über Docker zu installieren, aber bin dann auch hängen geblieben, weil das Grundkonzept wichtiger war.
Via Docker hab' ich's noch nie versucht, aber eine "richtige" VM, ein Debian drauf und dann Zoneminder ist keine große Sache:
https://wiki.zoneminder.com/Debian_10_Buster_with_Zoneminder_1.34.x_from_ZM_Repo

Liebe Grüße
Stephan
 
Hi Stephan,

…sehe du bist online?

einen guten Abend zu dir rüber und vielen Dank für deine Denkanstöße.

Ich hab gerade Proxmox nochmal neu aufgesetzt. Und jetzt wollte ich einmal testweise die alten beiden ZFS Platten (mit Daten) neu mounten. Sie waren vorher als ZFS-Mirror Pool direkt an PVE gemountet. Ich sehe sie jetzt auch unter Disks als 2 x Hard Disks ZFS Hostsystem. Unter „lsblk“ in der Konsole sind sie als sdf und sdg mit jeweils 2 Partitionen aufgelistet.

Wie kann ich diese Platten beispielsweise OVM wieder zu Verfügung stellen (ohne Datenverlust)? Ist das möglich, oder hätte ich diese erst im alten System aushängen müssen?



Danke für deine Hilfe Stephan
 
ein Hallo in die Runde,

hat denn jemand hier eine Idee, wie ich an meine zwei ZFS Platten komme, um irgendwie wieder auf die Daten zugreifen zu können (Problem aus Post 8) ???

ich brächte da dringend eure Hilfe, denn ich finde im Netz keine Lösung.

Weiterhin möchte ich einen ZFS10-Pool aus 4 x 4 TB Seagate IronWolf Platten auf dem Host erstellen, nur finde ich keine Empfehlungen für Einstellungen zum Erstellen des Pools. Es geht da um die Kompression und ashift. Die NVME Samsung 970Pro würde ich bei Performanssteigerung als Catch-Platte verwenden. Wäre das sinnvoll? (siehe auch Screenshot)

... oder findet das chatching später nur auf den VM's statt.

Danke für eure Mühe

AndréZwischenablage03.jpg
 
... und hier noch zwei Bilder zum Problem aus Post_8 - zu den zwei ZFS-Platten

vielleicht hilft das bei der Beantwortung meiner Frage?

Zwischenablage03.jpg
Zwischenablage04.jpg
 
schonmal
zfs import POOL (dein Poolname) (wenn sie aushängt waren)
oder
zfs import -f POOL (dein Poolname) (wenn sie nicht ausgehängt waren)
versucht ?
 
danke Für den Hinweis,
aber ich habe das ist aus einer Testumgebung heraus gemacht. Leider weis ich den Poolnamen nicht mehr. Kann man den irgendwie auslesen?

Ich bin wie geschrieben auch am Rumexperimentieren, damit ich sattelfest werde wenn später mal was schief geht.

Danke
 
wenn du eine Standard-installation gemacht hast heisst der z.B rpool (bei Proxmox) oder tank

versuche mal

zfs import rpool

oder

zfs import tank
 
... nein ich hab ihn über den Host bei Proxmox gebildet und einen eigenen Namen vergeben :-( Ich finde den Namen auch nicht mehr. Ich suche schon den ganzen Nachmittag nach einer Möglichkeit (Befehlskette) um eine Art Listing der Harware zu machen, immerhin kann ich sie ja noch in Proxmox GUI und auf der Konsole sehen. Man muß doch so etwas wieder generieren können ?
 
Ich habe Proxmox neu installiert, das ist das Problem. Ich habe gedacht, dass ein ZFS-Pool auch in ein Fremdsystem eingebunden werden kann. Ich hatte da 1 Woche lang Daten drauf geschrieben als Ersatzlösung und beim Probieren hab ich mir Proxmox zerschossen.
 
@Andy07 - nur so als Tipp - mache ich auch.
Schreibe bei den Notes deines Nodes wichtige Dinge hinein, wie z.B mein ZFS-Pool heißt tank0 - oder wie auch immer er heisst.
Auch bei den einzelnen VMs / LXCs kann man Infos eingeben, wie z.B IP-Adressen unter welchen sie erreichbar sind - oder wenn diese intern sind username und Passwort

oder schreibe diese Infos in eine Text-Datei und lege sie dahin wo du sie noch findest.
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!