NIC und weiteres konfigurieren

gerald_FS

Member
Aug 9, 2021
16
1
23
48
Hallo!

ich habe mein FamilienServer Setup nach 5 Jahre geändert, und habe dazu ein paar "Anfänger" Fragen, bzw die Frage nach der besten Lösung.

Neues Setup:
HPE DL360 G9
CPU 2630L V4
128GB RAM
HBA SAS Controller
(RAID Controller mit 2GB Cache) <- war original drin liegt aktuell auf Vorrat
10GB NIC
4x1GB NIC

Festplatten:
2x 120GB SSD = rpool (Proxmox)
2x 500GB SSD = zpool1 (VM)
2x 4TB HDD = zpool2 (Datenablage)

Switch HPE 2920 48 Port mit 10GB Interface

Aktuell habe ich alle folgende Netzwerkkarten in Betrieb

1GB - 1. Proxmox statische IP Adresse
1GB - 2. kleinere CT (Druckserver usw)
1 GB - 3. Homeassistent (VM)
1.GB - 4. unbenutzt

10GB - A. Nethserver
10GB - B. unbenutzt

im lokalen Netzwerk ist noch ein Proxmox Backup Server der ist ebenfalls mit einer 10GB NIC angebunden.



So nun zum Gedankengang:

A) macht diese Verteilung Sinn?
oder ist es besser alles über die 10GB NIC laufen zu lassen?

B) wenn ich ein Backup starte, welche NIC nutzt es - Gedacht ist dass dies über die 10GB NIC laufen soll.

C) da meine Konfiguration aktuell auf ZFS basiert habe ich mir den HBA Controller besorgt.
Aber wenn es einen spezialisierten HardwareRaidController mit 2GB Cache gibt wäre es nicht sinnvoller diesen zu verwenden und die Platten
einfach mit ext4 einzubinden?

Oder ist ZFS trotzdem die bessere Wahl?



Bin über Hilfe was die beste Möglichkeit ist sehr dankbar!

Liebe Grüße

Gerald
 
Das erste was mir Auffällt, ich hoffe du hast eine PV Anlage bei dem Stromverbrauch. ;)
Die wichtigste Frage, was für SSDs sind das denn? Wenn das Consumer SSDs sind, werden die mit ZFS nicht lange halten. Dann wäre der P440i mit Batteriecache die deutlich bessere Wahl.
Ich persönlich würde die 250er komplett für local (ext4) nutzen. Natürlich für alle Disks je ein Raid1 bauen. Beim P440 bitte auf den Arrays Smartpath deaktivieren und auf den logical Devices den Cache aktivieren mit 90% Write.
Aus den 500er SSDs und den HDDs dann am besten je einen Thin Pool bauen.
Beim Netzwerk den Host über eine extra NIC anzusprechen ist eine gute Idee, aber den Rest würde ich dann über 10G laufen lassen.
Wenn du das Backup über 10G machen willst, musst du der Bridge oder einer NIC eine IP aus einem anderen Kreis geben und dem PBS natürlich auch eine IP in dem Bereich. Dann beim PBS verbinden, diese IP nutzen. Schon geht der Traffic auch da lang.
 
  • Like
Reactions: Johannes S
Danke, schon mal!

Ja - PV ist vorhanden ;-) - aber das Setup läuft relativ sparsam mit 67W im Schnitt....
Der alte Server mit Atom C3558 hatte auch 37W, ja Leistung kostet ;-)

Der Backupserver läuft nur von 2x in der Woche von Mitternacht bis das Backup abgeschlossen ist.


Habe alles mit bis auf eine Ausnahme richtigen echten Server Platten damals ausgestattet.
Die Ausnahme sind die beiden 500GB SSD - das sind nur WD Red NAS. Allerdings laufen diese völlig unauffällig.
Die richtig teuren hatten keine guten Start....

Alle Platten sind grundsätzlich gespiegelt.

Höre ich deine Ausführungen heraus dass der HardwareController der P440 in diesem Setup die bessere Lösung wäre?
Gibt es einen Grundsatz wann HardwareRaid - wann SoftwareRaid bzw wann ZFS die bessere Lösung darstellt.....

Welchen Vorteil bringt mir ein LVM Thin Pool?
 
Last edited:
Danke, schon mal!

Ja - PV ist vorhanden ;-) - aber das Setup läuft relativ sparsam mit 67W im Schnitt....
Der alte Server mit Atom C3558 hatte auch 37W, ja Leistung kostet ;-)
Naja mein DL380 Gen9 zum Spielen braucht eher 140W.
Der Backupserver läuft nur von 2x in der Woche von Mitternacht bis das Backup abgeschlossen ist.
Da bitte auch Zeit für das Prune, GC und Verify einplanen.
Habe alles mit bis auf eine Ausnahme richtigen echten Server Platten damals ausgestattet.
Die Ausnahme sind die beiden 500GB SSD - das sind nur WD Red NAS. Allerdings laufen diese völlig unauffällig.
Die richtig teuren hatten keine guten Start....

Alle Platten sind grundsätzlich gespiegelt.

Höre ich deine Ausführungen heraus dass der HardwareController der P440 in diesem Setup die bessere Lösung wäre?
Gibt es einen Grundsatz wann HardwareRaid - wann SoftwareRaid bzw wann ZFS die bessere Lösung darstellt.....
Wenn du einen Hochwertigen RAID Controller mit Batteriecache hast und dann auch noch HDDs oder Consumer SSDs (WD Red ist auch Consumer), dann schonst du mit dem Cache die SSDs und beschleunigst die HDDs.
Wenn eh da, dann würde ich den auch nutzen.
Welchen Vorteil bringt mir ein LVM Thin Pool?
Du verbrauchst den Speicher nur wenn VMs auch Daten in ihre Disks schreiben und sparst dir den Overhead von Dateisystemen wie ext4 oder xfs.
ZFS sollte man nicht mit RAID Disks betreiben, was natürlich auch gehen würde, aber in dem Setup keine echten Mehrwerte bringt. Das einzige was du als Vorteil hättest, wäre das Bit Rot Detection, aber dafür muss man mit ZFS auf RAID Disks aufpassen und wissen was man tut.
 
  • Like
Reactions: Johannes S and news