Ausgiebige Fragen zur Hardware Dimensionierung eines produktiven PBS

Felix.

Renowned Member
May 13, 2018
171
26
68
24
Hallo zusammen,

Ich stelle grade Hardware Anforderungen zusammen für ein Projekt im Herbst diesen Jahres, dazu gehören 3 Server für PBS. 2 On- und 1 Offsite.
Die beiden Onsite Instanzen sollen sich gegenseitig ersetzen können im Falle eines Ausfalls, d.h. PBS-2 synchronisiert sich die Backups von PBS-1.
PBS-3 sitzt bei mir im Büro (im Serverraum natürlich) und repliziert übers WAN (durch VPN Tunnel) vom PBS-1, sollte dieser ausfallen, vom PBS-2.

Die PBS sollen 6-8 Nodes bedienen, d.h. 6-8 parallele Backups sollten kein Problem darstellen, ggfs. noch ein Restore parallel.
Ideal wäre es, wenn ich 500-1000 MiB/s als Backup/Restore Geschwindigkeit erreiche, um einigermaßen zügig auch größere Backups bzw. viel wichtiger Restores durchführen zu können.
Soweit der Plan.

Zur Dimensionierung der Hardware finden sich in der Dokumentation und auch hier im Forum ein paar Hinweise, allerdings hätte ich da ein paar Detailfragen, die ich gerne mit euch diskutieren möchte! :)
Ich habe mich ein wenig am Benchmark Thread orientiert und ein paar Weisheiten bzgl. ZFS berücksichtigt in meiner bisherigen Kalkulation.
Und das nächste Keyword. Auf Empfehlung der PBS Docs und durch persönliche Sympathie für ZFS, soll ein ZFS Array den Backup Speicher bereitstellen.

Prozessor
Da zu diesem Prozessor wohl auch interne Tests bei Proxmox gemacht wurden und auch Zahlen im Benchmark Thread veröffentlicht wurden, kam mir der AMD Epyc 7302P in den Sinn.
Mit seinen 3 GHz Basistakt ist eine potente Grundlage gegeben und trotzdem stehen 32 Threads zur Verfügung. Anderswo im Forum wurde auch erklärt, dass PBS bis zu einem gewissen Grad gut profitiert von mehr Threads.
Aus eigener Erfahrung weiß ich, dass ZFS auch Verwendung dafür hat.
Dennoch erscheint es ein wenig overkill, rein augenscheinlich. Was meint ihr dazu?
Es gäbe ja noch den Epyc 7232P mit "nur" 16 Threads und leicht höherem Basistakt von 3,1 GHz.

Speicher
Gedacht sind 12 8TB SATA HDDs, aufgeteilt in 2 RAID-Z2 vdevs. Also ein RAID-60, wenn man so will.
Als HDDs wären WD Ultrastar DC HC320 im Gespräch.

Folgende Formel verwende ich um meinen voraussichtlichen Speicher zu berechnen: 8*(1000^4)/(1024^4)*8*0.8 = ~46.5TB
Aufgedröselt:
- 8TB erstmal umrechnen in TiB, da die lieben Hersteller ja die Zahlen mit 1000 statt 1024 rechnen. :)
- Bei 2 RAID-Z2 vdevs verliere ich 4 HDDs für die Paritäten, der Speicher pro Platte wird also mit 8 Platten multipliziert.
- Gängige Empfehlung für ZFS Arrays ist eine *maximale* Befüllung von ca. 80%, also rechne ich diesen "Sicherheitsabstand" vorweg runter
Dort ist natürlich sonst kein weiterer Overhead eingerechnet, allerdings wird sich die Differenz wohl im Rahmen halten (?) - wenn ich bei 40-45TB netto ankomme, bin ich glücklich und zufrieden. :)

Ich kriege immer wieder mit, dass ein special device mirror sich äußerst positiv auf PBS auswirken kann, da gabs ja auch schon interessante Analysen von Tuxis, während der Beta. Und die Diskussion unterteilt sich ja nochmal in "small_blocks ja oder nein".
Wie sind denn eure Praxiserfahrungen so?
Ich hätte da 2 Samsung PM1725b 1,6TB im Auge, mit der Intention auch small_blocks zu aktivieren, sofern das einen entsprechenden Mehrwert bietet.
Die Grenze der small_blocks wäre auch interessant, da scheint sich die Menge mit 4K recht einig zu sein, was ich so beobachtet habe bislang.

Am Rande sei noch bemerkt: Als Boot-Laufwerke würde ich einfach 2 Intel D3-S4610 240GB verbauen und während der Installation einen ZFS Mirror wählen.

Arbeitsspeicher
Laut der Dokumentation sollte man für OS und PBS mindestens 4 GiB RAM einrechnen.
In der ZFS Welt gibt es noch die Empfehlung von 1 GiB per 1 TiB Speicher, das wären dann ca. 90 GiB RAM.

Ich würde also 128 GiB in der Maschine verbauen um alle Anforderungen problemlos abzudecken und sogar noch etwas Spiel zu lassen für den ZFS ARC.

Netzwerk
Geplant wäre die Maschine mit 2x 10G via LACP Bonding für den Backup und Sync Traffic anzuschließen.
Zusätzliche 2x 1G für sonstigen Traffic wie SSH oder den Zugang zur Weboberfläche von PBS.

Backplane & HBA
Ich liebäugel aktuell mit Supermicros 2ET XE1-2ET00-03 als Chassis.
Soweit sind mir keine fürchterlichen Sachen bzgl. der Backplane ins Auge gefallen, 100% sagen kann ich das allerdings nicht.
Hierzu würde ich auch bei meinem Hardware Distributor nochmal konkreter anfragen, vor dem Kauf.

Das voraussichtliche Board, ein Supermicro H11SSL-i (Rev. 2.0), bringt bereits mehr als genug SATA-3 Ports onboard mit.
Nach etwaiger Recherche im Internet erklären die meisten dass die Verwendung von onboard Ports kein Problem ist, performancetechnisch, sofern man ausreichend Ports hat. In meinem Fall wäre demnach ein HBA unnötig.
Könnt ihr mir da zustimmen oder gibt es andere Faktoren die ich hier berücksichtigen sollte?

Die Frage aller Fragen: Wird das oben genannte Setup voraussichtlich den gestellten Erwartungen entsprechen oder sie gar übertreffen?
Oder ist es gar überdimensioniert und es könnte hier oder dort noch bedenkenlos etwas ausgespart werden?
What do you think? :)

An der Stelle erstmal danke für das Durchhaltevermögen bis hier hin zu lesen. :D
Ich bin gespannt auf eure Meinungen und Vorschläge!
Alle möglichen Fragen beantworte ich natürlich auch gerne!

Schönen Abend noch!
 
Last edited:
Hi!

Kann nur meinen eigen Senf dazugeben.
Dennoch erscheint es ein wenig overkill, rein augenscheinlich. Was meint ihr dazu?
Es gäbe ja noch den Epyc 7232P mit "nur" 16 Threads und leicht höherem Basistakt von 3,1 GHz.
Der 8-Kerner sollte im Normalfall reichen, damit kann man einiges an IO abfackeln und bei dem Setup nicht ein Flaschenhals darstellen. Wenn geplant ist die Node Anzahl zu skalieren würde ich schon den stärkeren nehmen; rund 400 € pro Server ist nicht die Welt.

Gedacht sind 12 8TB SATA HDDs, aufgeteilt in 2 RAID-Z2 vdevs. Also ein RAID-60, wenn man so will.
Interessante Idee, persönlich hätte ich die eher alle in 6 Mirrors aufgeteilt, könnte etwas mehr Performance geben und das Resilvern stressfreier machen; verstehe aber auch den Wunsch nach mehr nutzbaren Speicher. Auf jeden Fall Benchmarken und auch andere Konfigurationen probieren, IOPS und Bandbreite sind das A und O bei der PBS Performance.
Ich kriege immer wieder mit, dass ein special device mirror sich äußerst positiv auf PBS auswirken kann, da gabs ja auch schon interessante Analysen von Tuxis, während der Beta. Und die Diskussion unterteilt sich ja nochmal in "small_blocks ja oder nein".
Wie sind denn eure Praxiserfahrungen so?
Ich hätte da 2 Samsung PM1725b 1,6TB im Auge, mit der Intention auch small_blocks zu aktivieren, sofern das einen entsprechenden Mehrwert bietet.

Zur small_block Grenze kann ich nichts Allgemeines sagen, 4k aber auch 64k kann auch noch sehr OK sein. Auf alle Fälle würde ich aber zwei schnellen NVMe als Special Device Mirror stark empfehlen.
Das beschleunigt Metadaten Zugriffe und die sind beim PBS in viele Operationen vorhanden (Garbage Collection, Prune, ...).

Wenn nur VMs gebackupt werden, könnte man auch probieren die ZFS recordsize auf 1M zu erhöhen.

Ich würde also 128 GiB in der Maschine verbauen um alle Anforderungen problemlos abzudecken und sogar noch etwas Spiel zu lassen für den ZFS ARC.
Kling vernünftig und angemessen mit genügen Spielraum.

Ich liebäugel aktuell mit Supermicros 2ET XE1-2ET00-03 als Chassis.
Soweit sind mir keine fürchterlichen Sachen bzgl. der Backplane ins Auge gefallen, 100% sagen kann ich das allerdings nicht.
Hierzu würde ich auch bei meinem Hardware Distributor nochmal konkreter anfragen, vor dem Kauf.

Das voraussichtliche Board, ein Supermicro H11SSL-i (Rev. 2.0), bringt bereits mehr als genug SATA-3 Ports onboard mit.
Nach etwaiger Recherche im Internet erklären die meisten dass die Verwendung von onboard Ports kein Problem ist, performancetechnisch, sofern man ausreichend Ports hat. In meinem Fall wäre demnach ein HBA unnötig.
Könnt ihr mir da zustimmen oder gibt es andere Faktoren die ich hier berücksichtigen sollte?

Die AMD Epyc Serie kann bis zu 32 SATA Ports direkt über den in der CPU integrierten SATA-3 Controller ansprechen, je nachdem wie viele PCIe Lanes benützt werden, extra HBA sehe ich also als unnötig (und kann man notfalls immer noch Nachrüsten).

Die Frage aller Fragen: Wird das oben genannte Setup voraussichtlich den gestellten Erwartungen entsprechen oder sie gar übertreffen?
Oder ist es gar überdimensioniert und es könnte hier oder dort noch bedenkenlos etwas ausgespart werden?
What do you think? :)
Ich denke, das Setup passt ganz gut. Ich sehe keine Überdimensionierung, bei welcher man wirklich kosten einsparen könnte.

Nur so am Rande, ums auf nächste Level zu bringen würde ich SSD-Only empfehlen, man spart zwar dann die Special Devices, aber die einzelnen Platten werden sehr viel teurer. Kleiner Vergleich: Backup Disk Kosten in deinem Setup 12 * 150 € + 2 * 350 € = 2500 € vs. SSD-Only (12 Micron 5210 ION 7.68TB) 12 * 680 € = 8160 €
Damit könnte man dann aber auch 25G Ethernet gut auslasten ;)
 
Interessante Idee, persönlich hätte ich die eher alle in 6 Mirrors aufgeteilt, könnte etwas mehr Performance geben und das Resilvern stressfreier machen; verstehe aber auch den Wunsch nach mehr nutzbaren Speicher. Auf jeden Fall Benchmarken und auch andere Konfigurationen probieren, IOPS und Bandbreite sind das A und O bei der PBS Performance.
Ich werde dann auf jeden Fall mal unterschiedliche Varianten durchtesten, 10TB weniger wären schon unkomfortabel, aber durchaus noch denkbar.

Wenn nur VMs gebackupt werden, könnte man auch probieren die ZFS recordsize auf 1M zu erhöhen.
Voraussichtlich werden das ausschließlich VMs sein. Klingt interessant mit der recordsize. Probier ich aus! :)

Nur so am Rande, ums auf nächste Level zu bringen würde ich SSD-Only empfehlen, man spart zwar dann die Special Devices, aber die einzelnen Platten werden sehr viel teurer. Kleiner Vergleich: Backup Disk Kosten in deinem Setup 12 * 150 € + 2 * 350 € = 2500 € vs. SSD-Only (12 Micron 5210 ION 7.68TB) 12 * 680 € = 8160 €
Damit könnte man dann aber auch 25G Ethernet gut auslasten ;)
Hah, das wärs! :D
Aber ich glaube das ist im Moment noch außer Reichweite... eines Tages!
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!