PBS mit gr Datastore

Mar 30, 2020
154
18
38
44
Hy Leute!

Ich werde mal wieder um ein System gebeten welches ich noch nie "gebaut" habe. Hoffe auf etwas Feedback euerseits da ZFS Sizing nicht meine Stärke ist.
Es sollte alles von Vmware, Veeam weg migriert werden.

Der San Cluster sollte durch ein Cephcluster ausgetauscht werden, Datenvolumen derzeit ca 11TB, Kunde möchte bis 20TB Reserven haben.
Nun gehts darum ein passenden Backupserver zu erstellen. Vermutlich blauäugig wäre davon auszugehen einfach ein System mit sagen wir mal 8x8TB Disks in ein RaidZ1 zu stecken. Wie würdet ihr den Datastore erstellen, zu berücksichtigen gilt es ja ein Ausfall einer Disk ohne gr Probleme zu überstehen.

Ein RaidZ1 mit 8x 8TB Disks ergibt eine Gesamtkapazität mit ca 47TB (wobei 20% max 37TB genutzt werden sollten)
Ein Ausfall einer Disks könnte hier vermutlich eine lange Rebuildzeit verursachen, den Datastore ggf stark verlangsamen ( => Vermutungen)

Alternativ könnten man 2 RaidZ1 mit je 4x 8TB Disks ergibt eine Gesamtkapazität mit ca 40TB (wobei 20% max 32TB genutzt werden sollten)
Ein Ausfall einer Disks wäre vermutlich schneller, mit weniger Riskio behaftet.
Schön wäre es natürlich wenn man aus beiden Drivegroups ein gr Storage bauen könnte um Dedup besser nutzen zu können.



ZFS Rechner: https://wintelguy.com/zfs-calc.pl


Wie immer vorab schon vielen Dank
Roland
 
Wie schon erwähnt, sind die Empfehlungen nicht umsonst geschrieben :)

Da die Backups in Chunks geteilt werden die mitunter von vielen Backups geteilt werden, ist der backup und restore Prozess alles andere als sequentiell. Dazu kommen dann mitunter mehrere Clients die darauf zugreifen und / oder andere Tasks wie die Garbage Collection oder ein Verify.

Die Quintessenz daraus: Random IOPS sind wichtig!

Lies dir evlt. mal dieses Kapitel durch, vor allem in Bezug auf IOPS Performance. Das mit dem unerwarteten Overhead hat man bei einem PBS nicht.

Wenn es keine SSDs sein können, kann man sich behelfen. Je mehr kleinere VDEVs man hat, desto besser werden die IOPS. Wenige SSDs für das Special Device macht alles, was Metadaten angeht sehr schnell (z.B. GC).
 
Hy

Erst mal danke für eure Unterstützung und sorry ich habe mich missverständlich ausgedrückt.
Mit Disks waren SSD Disks gemeint, also sollte ich mit der Performance kein Problem haben.
Aber welches ZFS Layout hierfür das beste ist kann ich leider nicht sagen.

Natürlich ist Raíd10 am besten für ZFS aber der Speicherverlust wird wohl nicht so gering sein.
Mit einem RaidZ1 sollte mehr Speicher zur Verfügung stehen jedoch kann ich nicht abschätzen welche Nachteile das mit sich bringt

@UdoB
Mit Dedup hatte ich die PBS Funktion gemeint welche auf Chunksbasis basiert. Sorry wenn ich auch hier missverständlich geschrieben habe.

Die Deduplizierungsschicht in der Proxmox Backup-Lösung reduziert diese Datenmenge auf dem Backup Server und minimiert den Speicherbedarf.

https://www.proxmox.com/de/proxmox-...rmance oder Deduplizierungsraten zu erhalten.

Meine Frage wäre also
Bei 8 Stück a 8TB SSD als Datastore für ein PBS ist welches "Filesystem Layout" am besten geeignet.
Sodass ich wenig Speicher verliere und im Fehlerfall rasch wieder ein sauberes Storage habe.
Oder liege ich komplett daneben und sollte nicht zfs sondern eine Alternative wählen. zB Hardware-Raidcontroller ohne ZFS.

sg
Roland
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!