Proxmox ZFS Speicherhardware Best Practices

Ren0

New Member
Jan 8, 2025
3
0
1
Hallo liebe Proxmoxer,

ich bin derzeit bei der Konfiguration meines ersten eigenen Homeservers. Leider bin ich von der Informationsflut und den teils widersprüchlichen Aussagen, welche man in den Weiten des Internets bezüglich der Best Practices bei der Speicherkonfiguration findet, etwas erschlagen und baue deshalb auf eure Hilfe als erfahrenere User.

Geplant ist auf dem Server vor allem Self-Hosted Apps in Containern zu verwalten (Jellyfin, Nextcloud, Immich, HomeAssistant, Pi-Hole, Tandoor...). Der Server steht bei mir im Wohnzimmer weswegen ich viele Schreibzugriffe auf die HDDs aus Lautstärke gründen möglichst vermeiden möchte.

Nun zur angedachten Hardware Konfiguration:

3x 16TB Seagate Exos
im RAID-Z1 als Datenspeicher für Medien und als Datenspeicher

2x 1TB Mushkin Endora m.2 SSD als Mirror für LXC und VMs

1x 960GB Samsung PM883 2,5" in ZFS RAID-0 als Bootdrive und eventuell als L2ARC und SLOG

Nun zu meinen Fragen:
  • Macht diese Konfiguration für meinen Zweck Sinn?
  • Sollte ich das Bootdrive besser auch gespiegelt haben?
  • Ist für meinen Anwendungsfall L2ARC und SLOG überhaupt notwendig? Leider finden sich hier viele widersprüchliche Angaben im Netz von "Auf jeden Fall immer einrichten" bis "Für Homeserver totaler overkill". Ergänzend dazu plane ich mit 48GB RAM, falls das hilft.
  • Ist es problematisch Proxmox, L2ARC und SLOG auf der gleichen SSD zu haben? Die Samsung PM833 hat PLP, und von dem was ich gelesen habe sollten dadurch selbst bei einem Ausfall die Daten in den anderen Pools nicht corrupted werden.
  • Sollte ich bei den m.2 SSDs für die VMs auch auf Enterprise SSDs setzen oder hält sich hier der Verschleiß in Grenzen? Die Mushkin Endora hat eine MTBF von 1.500.000 Stunden ist es da den Aufpreis für die Enterprise SSD wirklich wert?
Als Case plane ich das Jonsbo N2 zu verwenden. Dort hätte ich Platz für 5x 3,5", 1x 2,5" und auf meinem Mainboard (N100 NAS Board von TopTon) ist Platz für 2x m.2.

Ich würde mich freuen wenn ihr mir bei der Konfiguration helfen könntet und freue mich auf eure Antworten und Gegenvorschläge :)
 
Sollte ich das Bootdrive besser auch gespiegelt haben?
Aus technischer Sicht und Erfahrung, ja. Mindestens einen 2er Spiegel. Mindestens, weil einer ist besser als keiner und ich selbst schon davor stand, dass ich bei Ausfall einer Platte von der überlebenden resilvern wollte und die dann auch die Biege gemacht hat. Hat keinen Spaß gemacht, da denkt auch niemand dran...man hat ja nen "Spiegel". ;)

Ist für meinen Anwendungsfall L2ARC und SLOG überhaupt notwendig?
Das ist eine schöne Sache, aber Bonuskram, für den Fall dass du noch Geld und Platz im Gehäuse übrig hast. IMHO Lieber einmal mehr spiegeln, als noch ein Fass aufzureißen, dass man dann nur halbherzig dazupfuscht.

Ist es problematisch Proxmox, L2ARC und SLOG auf der gleichen SSD zu haben? Die Samsung PM833 hat PLP, und von dem was ich gelesen habe sollten dadurch selbst bei einem Ausfall die Daten in den anderen Pools nicht corrupted werden.
"Sollten" mittlerweile nicht mehr, aber ich habe es nicht ausprobiert und im Zweifel will ich mich nicht drauf verlassen. Davon abgesehen ist ein einzelnes Laufwerk für drei Zwecke in meinen Augen Pfusch. Ein Laufwerk ist für sich allein gesehen bereits ein SPOF (single point of failure) und wenn du dann noch 3 Dinge davon abhängig machst...naja (mal ganz davon abgesehen, dass die darauf gelegten Bandbreitenlasten dann gegeneinander kämpfen aka "Bitte lassen Sie die Fahrgäste erst aussteigen."). In meinen Augen daher je Zweck mindestens einen eigenen mirror (muss nicht ZFS sein) und dann keine Verknüpfung/Abhängigkeit mit poolfremden disks.
Wie oben schon erwähnt, lieber einen triple mirror für Proxmox und auf der sicheren Seite sein, noch einen funktionierenden 2er mirror zu haben, während eine ausgefallen ist.

Dann kommt es auf dein Netzwerk an. Wenn das langsamer ist, als dein raidz1 in seiner bestehenden config schreiben und lesen kann, dann bringen dir weder SLOG noch L2ARC was.

Sollte ich bei den m.2 SSDs für die VMs auch auf Enterprise SSDs setzen
Ja, auf jeden Fall. Consumer-SSDs sind jedoch gut genug um das Proxmox-System zu booten oder als .iso-Ablage, weil da am wenigsten Schreiblast entsteht, aber auch eben nicht "nichts".

MTBF von 1.500.000 Stunden
"Wie länge fährt ein Auto, bis es stoppt?" ;) Da kann man sich nicht drauf verlassen, zuviele Faktoren. Wenn das Ding z.B. im Gehäuse vor sich hinköchelt und du die Zellen einfach mit massiv viel Daten schneller durchschreibst, wird das Handtuch früher geworfen.

Als Case plane ich das Jonsbo N2 zu verwenden. Dort hätte ich Platz für 5x 3,5", 1x 2,5" und auf meinem Mainboard (N100 NAS Board von TopTon) ist Platz für 2x m.2.
Wie gesagt: Geld, Platz im Gehäuse und Slots auf dem Board, eins davon grätscht immer rein. :)
 
Last edited:
Danke für deine ausführliche Antwort @mr44er. :)

Das mit dem L2ARC und SLOG werde ich erst mal sein lassen und abwarten wie das System performt. Zum Spiegeln der 2,5" SSD fehlt mir nur leider der Platz im Gehäuse und das schöne Geld. :p
Mein Gedanke war jetzt für den m.2 Mirror kleinere Enterprise SSDs zu verwenden und dort Proxmox zu installieren und auf der anderen 2,5" SSD die LXC zu speichern, also quasi getauscht. Nur wären dann halt stattdessen die Container nicht gespiegelt.
Könntest du da vielleicht deine Erfahrung teilen was einfacher wiederherzustellen ist im Worst Case: Die Proxmox Bootdrive oder der Pool mit den LXCs und VMs? Müsste sich Proxmox nicht relativ einfach wiederherstellen lassen, wenn man /etc/ gesichert hat?
Eigentlich müsste ja auf dem Volume mit den LXCs und VMs mehr geschrieben werden als auf dem Proxmox Volume oder mache ich da einen Denkfehler und unterschätze das Proxmox logging? Jedenfalls würde ich da den Weg des geringsten Widerstands wählen und das was leichter wiederherzustellen ist auf der RAID-0 Disk "opfern" und dann aus einem Backup wiederherstellen falls die SSD ausfällt. Für regelmäßige Snapshot Backups, die extern auf ein NAS abgelegt werden will ich auf jeden Fall noch sorgen.
 
3x 16TB Seagate Exos im RAID-Z1 als Datenspeicher für Medien und als Datenspeicher


Hier im Forum wurde immer mal wieder von Performanceproblemen bei RAIDZ berichtet. Ein Triple-Mirror oder striped mirror ( entspricht RAID10 und benötigt vier Laufwerke) wäre ausfallsicherer und performanter, auf Kosten der Kapazität:


  • Sollte ich das Bootdrive besser auch gespiegelt haben?

Wenn du den Platz und Anschlüße hast: Ja, auf jeden Fall! Insbesondere, wenn das auch als special device/slog etc eingesetzt werden soll.
  • Ist für meinen Anwendungsfall L2ARC und SLOG überhaupt notwendig? Leider finden sich hier viele widersprüchliche Angaben im Netz von "Auf jeden Fall immer einrichten" bis "Für Homeserver totaler overkill". Ergänzend dazu plane ich mit 48GB RAM, falls das hilft.


Eine Partition im mirror als special device im mirror zur Beschleunigung des Zugriffs auf die HDDs bietet sich eher an:
https://pve.proxmox.com/wiki/ZFS_on_Linux#sysadmin_zfs_special_device

Zu beachten: Ist das special device kaputt, sind auch die Daten auf der HDD weg-> Darum mirror.
Sollte ich bei den m.2 SSDs für die VMs auch auf Enterprise SSDs setzen oder hält sich hier der Verschleiß in Grenzen?

Ja, auf jeden Fall, schon wegen ZFS Autoheilungsfunktion, ohne zweites Device werden Fehler zwar erkannt, aber nicht repariert. Falls dir das für m2s zu teuer ist: SATA-Enterprise-SSDs sind gebraucht zu vertretbaren Preisen erhältlich. Ansonsten halt einplanen, dass du von Zeit zu Zeit die M2s austauschen lässt, ggf. zwei verschiedene Marken nehmen, damit ein gleichzeitiger Ausfall unwahrscheinlicher wird.
Außerdem zu bedenken: Die Enterprise-SSDs haben auch eine bessere Performance.

Als Case plane ich das Jonsbo N2 zu verwenden. Dort hätte ich Platz für 5x 3,5", 1x 2,5" und auf meinem Mainboard (N100 NAS Board von TopTon) ist Platz für 2x m.2.

Hm, das scheint aber kein ECC-RAM zu unterstützen oder? Wenn du dir eh ein neues System zusammenstellt und dir Datensicherheit wichtig ist, wäre das eine Überlegung wert. Zugegeben: Mein zum NAS umfunktionierter Mini-PC hat es auch nicht, es ist eine Frage, welchen Tod zu sterben man vertreten kann und will.

Ich würde die Slots wohl so nutzen:
- 2 SATA-SSDs mit einer Partition fürs OS und einer weiteren als special device für die hdds. Als Größenbedarf für das special device ist 2% der HDD Kapazität eine gtoßzügige Faustregel.
- 2 HDDs im Mirror als Datengrab, dritte HDD als Reserve( spare device), falls eine ausfällt. Alternativ gänge natürlich auch triple mirror oder eine vierte hdd installieren und einen striped mirror einrichten.
- NVMEs im Mirror für VMs/Container.

Prinzipiell könnte auch eine kleine Partition ( im mirror) auf den HDDs als Bootdevice genommen werden, die SSD-Performsnce ist vor allen für die eigentlichen vns/lxcs wichtig. Oder M2 ubd SATA-SSDs die Rollen tauschen lassen.


Was mir generell bei dir fehlt: Ein Backupkonzept, sowohl für den Host als auch die VMs und Container.
PVE ist zwar schnell neu aufgesetzt, aber je nachdem wieviel angepasst wird, kann eine Neukonfiguration sich ja auch in die Länge ziehen. VMs und Container dagegen lassen sich ja direkt backuppen und sind somit schnell wieder hergestellt. Ich würde darum eher beim Storage für VMs/LXcs auf RAID verzichten statt beim Betriebsystem. Aus den gleichen Grund halte ich dort Enterprise-SSDs für verzichtbarer als beim OS. So oder so ersetzt RAID aber kein Backup.
 
  • Like
Reactions: Ren0
Könntest du da vielleicht deine Erfahrung teilen was einfacher wiederherzustellen ist im Worst Case: Die Proxmox Bootdrive oder der Pool mit den LXCs und VMs? Müsste sich Proxmox nicht relativ einfach wiederherstellen lassen, wenn man /etc/ gesichert hat?
PVE ist frisch in 5 Minuten installiert und die .iso liegt im Netz. Also ja, wenn du abwägen musst und es nicht anders geht, dann lieber auf Redundanz beim BootLW verzichten und mehr Redundanz für deine Daten(hier sind große Drehplatten sinnvoll) und VMs (hier sind die Enterpriselaufwerke am sinnvollsten, wegen der IOPS und endurance, nicht wegen einer wertlos "versprochenen" MTBF), die sind nämlich unique. Unabhängig davon was schwieriger herzustellen wäre, für die eigenen Daten sollte man immer die unbequeme Extrameile gehen und im Zweifel falls alles den Bach runtergeht, eine weitere eiserne Reserve irgendwo anlegen. Dieses Backup sollte dann auch regelmäßig aktualisiert werden und nicht dauerhaft mit dem System verbunden sein.
Du findest hier Anleitungen, welche config-Dateien gesichert werden müssen und ein dringender Rat: probiere es vorher aus wie und ob das für dich funktioniert , z.B. falls du noch einen alten Gammelrechner vorhanden hast als Testobjekt. Bedenke auch, dass wenn zwei Jahre alles glatt läuft man vergesslich wird und sich dran gewöhnt, dann das BootLW eiskalt die Hufe reckt und plötzlich "Wie war das nochmal?..." -> Also vorher einmal durchtesten, Notizen machen, immer zwei USB-Sticks bootbereit beschrieben mit der aktuellen pve.iso bereitliegen haben.

Eigentlich müsste ja auf dem Volume mit den LXCs und VMs mehr geschrieben werden als auf dem Proxmox Volume oder mache ich da einen Denkfehler und unterschätze das Proxmox logging?
Nein, alles richtig. Für das BootLW kommst du mit Consumerzeug aus, da wird insgesamt gesehen wenig geschrieben.

Ansonsten halt einplanen, dass du von Zeit zu Zeit die M2s austauschen lässt, ggf. zwei verschiedene Marken nehmen, damit ein gleichzeitiger Ausfall unwahrscheinlicher wird.
Ja, der Tipp ist super, vergesse ich viel zu oft zu erwähnen.
 
  • Like
Reactions: Ren0
Nein, alles richtig. Für das BootLW kommst du mit Consumerzeug aus, da wird insgesamt gesehen wenig geschrieben.

Naja, die ständigen Writes bei PVE kommen aber von den Graphen, Loggindaten und dem proxmox cluster file system (https://pve.proxmox.com/wiki/Proxmox_Cluster_File_System_(pmxcfs)). Die Konfigurationsdateien unter /etc/pve müssen ja für alle Knoten in einen Cluster gleich und konsistent sein (auch wenn der nur aus einen Knoten besteht ;)), das wird darüber sichergestellt, dass der Inhalt von /etc/pve (liegt im RAM) ständig mit einer sqlite-Datenbank abgeglichen wird, findet also auf den OS-/Bootlaufwerk statt.
 
  • Like
Reactions: Ren0
Ja, ich meinte im Vergleich von der Schreiblast VMs/Containergedöhns vs. Nutzdaten (Urlaubsfotos, Linuxisos, wissenschon ;) ) vs. BootLW dürfte/sollte beim BootLW dabei die geringste Schreiblast liegen. Zumindest bei mir so.
Nichtsdestotrotz ist halt auch dort Verschleiß vorzufinden, aber da nutze ich einfach kleine ConsumerSSDs und ob die jetzt 2 oder 3 Jahre verkraften...bei den Preisen ist das egal. :p
 
  • Like
Reactions: Ren0 and Johannes S
Ja, ich meinte im Vergleich von der Schreiblast VMs/Containergedöhns vs. Nutzdaten (Urlaubsfotos, Linuxisos, wissenschon ;) ) vs. BootLW dürfte/sollte beim BootLW dabei die geringste Schreiblast liegen. Zumindest bei mir so.

Ich würde eher erwarten, dass die Schreiblast beim Bootdrive höher ist, als bei den Nutzdaten, bei den vms bin ich mir dagegen nicht sicher ( kommt vermutlich drauf an, was läuft): Die Logs und config-sqlite werden ja ständig geschrieben, die Daten nur bei Nutzung der Anwendungen.

Nichtsdestotrotz ist halt auch dort Verschleiß vorzufinden, aber da nutze ich einfach kleine ConsumerSSDs und ob die jetzt 2 oder 3 Jahre verkraften...bei den Preisen ist das egal. :p

Auch ein vollkommen legitimer Ansatz, aber gerade dann macht ein Mirror das Leben leichter
 
Last edited:
Eine Partition im mirror als special device im mirror zur Beschleunigung des Zugriffs auf die HDDs bietet sich eher an:
https://pve.proxmox.com/wiki/ZFS_on_Linux#sysadmin_zfs_special_device

Zu beachten: Ist das special device kaputt, sind auch die Daten auf der HDD weg-> Darum mirror.
Danke das ist auf jeden Fall noch ein guter Hinweis, dass es auch noch sowas gibt, ist mir irgendwie durchgerutscht.
Ja, auf jeden Fall, schon wegen ZFS Autoheilungsfunktion, ohne zweites Device werden Fehler zwar erkannt, aber nicht repariert.
Reicht es als Privatanwender nicht auch zpool scrub wöchtenlich zu verwenden und im Notfall Snapshots parat zu haben oder schieße ich mir damit ins eigene Bein und sollte wirklich auf die autoheal funktion setzen?

Hm, das scheint aber kein ECC-RAM zu unterstützen oder? Wenn du dir eh ein neues System zusammenstellt und dir Datensicherheit wichtig ist, wäre das eine Überlegung wert.
Leider nicht, ich habe mich dazu entschieden diesen Tod zu sterben und hab aus kostengründen auf ECC verzichtet, weil ich dann auch wieder auf eine teurere AM4 Plattform wechseln müsste, die dann am Ende nicht die nötigen Transcoding Funktionen hat, die ich brauche und da noch ein riesiger Rattenschwanz dran gehangen hätte. Am Ende des Tages bin ich auch einfach nur ein Student, der sich in einer Freizeit da ein bisschen ausprobieren möchte, ohne das Budget komplett zu sprengen. :p


Ich würde die Slots wohl so nutzen:
- 2 SATA-SSDs mit einer Partition fürs OS und einer weiteren als special device für die hdds. Als Größenbedarf für das special device ist 2% der HDD Kapazität eine gtoßzügige Faustregel.
- 2 HDDs im Mirror als Datengrab, dritte HDD als Reserve( spare device), falls eine ausfällt. Alternativ gänge natürlich auch triple mirror oder eine vierte hdd installieren und einen striped mirror einrichten.
- NVMEs im Mirror für VMs/Container.
Danke für den Input. :)

Was mir generell bei dir fehlt: Ein Backupkonzept, sowohl für den Host als auch die VMs und Container.
PVE ist zwar schnell neu aufgesetzt, aber je nachdem wieviel angepasst wird, kann eine Neukonfiguration sich ja auch in die Länge ziehen. VMs und Container dagegen lassen sich ja direkt backuppen und sind somit schnell wieder hergestellt. Ich würde darum eher beim Storage für VMs/LXcs auf RAID verzichten statt beim Betriebsystem. Aus den gleichen Grund halte ich dort Enterprise-SSDs für verzichtbarer als beim OS. So oder so ersetzt RAID aber kein Backup.
Da bin ich im Originalpost nicht drauf eingegangen, weil das sonst den Rahmen etwas gesprengt hätte. Geplant ist PBS in einem LXC laufen zu lassen, um dort nächtlich Backups/Snapshots zu erstellen und diese dann auf eine NAS zu schicken die extern bei meinem Vater liegt. Um das 3-2-1 Backup System auch richtig umgesetzt zu haben, hatte ich überlegt auf LTO-5/6 Tapes weitere circa halbjährliche Backups anzulegen, das ist aber noch Zukunftsmusik da möchte ich erstmal soweit den Server aufgesetzt haben und die NAS Backups reichen dann hoffentlich fürs Erste.

Nein, alles richtig. Für das BootLW kommst du mit Consumerzeug aus, da wird insgesamt gesehen wenig geschrieben.
Macht es dann überhaupt Sinn, wenn ich nur ein Bootlaufwerk habe (Der Spiegel wird wohl aus Platz und Kostengründen nix :( ) das mit ZFS als Dateisystem laufen zu lassen oder sollte ich das besser einfach auf ext4 oder ähnlichem laufen lassen was nicht so schreiblastig ist wie ZFS?
Du findest hier Anleitungen, welche config-Dateien gesichert werden müssen und ein dringender Rat: probiere es vorher aus wie und ob das für dich funktioniert , z.B. falls du noch einen alten Gammelrechner vorhanden hast als Testobjekt.
Danke für den Rat ich werde es auf jeden Fall beherzigen (Vor allem, weil Mutti ihre Kochrezepte auch auf dem Server speichern möchte :p ). Wie ich mein Backup geplant habe steht ja schon weiter oben da wollte ich nur nicht zu sehr abschweifen.

Auf jeden Fall vielen Dank an euch beide das hat mir schon mal viel Klarheit gebracht ;)
 
Macht es dann überhaupt Sinn, wenn ich nur ein Bootlaufwerk habe (Der Spiegel wird wohl aus Platz und Kostengründen nix :( ) das mit ZFS als Dateisystem laufen zu lassen oder sollte ich das besser einfach auf ext4 oder ähnlichem laufen lassen was nicht so schreiblastig ist wie ZFS?
Ich wähle nicht das Dateisystem anhand dessen ob die disk das gut verträgt und fahre daher meistens ZFS, wenn ich die Wahl habe. Allein schon die Vorteile wie snapshots und zfs send mag ich da nicht missen...allein aus der Gewohnheit. Im Endeffekt Geschmackssache und zumindest ich habe nach 2 Jahren noch keine BilligSSD mit ZFS kaputtgeschrieben bekommen, anscheinend mache ich was falsch. ;)
 
  • Like
Reactions: Johannes S
Danke das ist auf jeden Fall noch ein guter Hinweis, dass es auch noch sowas gibt, ist mir irgendwie durchgerutscht.

Der Witz beim special device ist halt, dass die Metadaten neu geschriebener Daten dann (solange Platz da ist) auf das special device ausgelagert werden. Rein theoretisch könnte man auch ein hdd dafür nehmen, aber dann hat man natürlich keinen Performance-Vorteil. Profitieren tun davon alle Sachen, die vor allen mit den Metadaten arbeiten, aber nicht die eigentlichen Daten (z.B. um Dateien samt Größen in einen Verzeichnis aufzulisten). Das macht sich besonders bemerkbar, wenn der Datenspeicher für z.B. PBS (oder ähnlich arbeitende Software) auf HDDs liegt. Es hat ja seine Gründe, warum die PBS-Doku dafür explizit Enterprise-SSDs empfiehlt. Wenn die aber keine Option sind, sorgt das special device dafür, dass die garbage collection und verify immer noch langsamer sind als mit SSDs, aber wenigstens in einer halbwegs vertretbaren Zeit fertig wird. Bei der Garbage Collection ist der Effekt am Stärksten, da diese Jobs hauptsächlich mit den Metadaten arbeiten, während die verify-Jobs auch die eigentlichen Daten einlesen müssen (die ja trotzdem auf den HDDs liegen). Nachteil wie gesagt: Ist das special device kaputt, sind auch die Daten auf den hdds weg.

Reicht es als Privatanwender nicht auch zpool scrub wöchtenlich zu verwenden und im Notfall Snapshots parat zu haben oder schieße ich mir damit ins eigene Bein und sollte wirklich auf die autoheal funktion setzen?

Nein, das scrub erkennt zwar die Fehler, kann sie mit den Standardeinstellungen aber nicht "reparieren". Die kann man zwar ändern (so dass auch bei nur einen Laufwerk dort zwei Kopien der Daten vorgehalten werden), aber das frisst dann natürlich auch mehr Platz. Und wenn die Platte selbst kaputt ist, nützt das einen auch nichts (anders als bei einen richtigen Mirror mit zwei getrennten Laufwerken): https://docs.oracle.com/cd/E19253-01/820-2313/gevpg/index.html
Bei Snapshot meinst du hoffentlich vom medium her getrennte Backups oder? Auf den potentiell defekten gleichen Laufwerk nützen die dir ja nichts. zfs hat mit zfs send/receive eine ganz praktische Funktion, um die lokalen Snapshots auf externe Medien oder Server zu replizieren, damit hätte man dann das Backup. Oder man macht halt ein Backup des Hosts mit einen klassischen Backuptool (ich nehme restic dafür, da ich dann für die Wiederherstellung des Hosts keinen laufenden ProxmoxBackupServer benötigte, andere Leute sind mit borgbackup oder dem proxmox-backup-client +PBS glücklich, ist wie immer Abwägungssache).

Leider nicht, ich habe mich dazu entschieden diesen Tod zu sterben und hab aus kostengründen auf ECC verzichtet, weil ich dann auch wieder auf eine teurere AM4 Plattform wechseln müsste, die dann am Ende nicht die nötigen Transcoding Funktionen hat, die ich brauche und da noch ein riesiger Rattenschwanz dran gehangen hätte. Am Ende des Tages bin ich auch einfach nur ein Student, der sich in einer Freizeit da ein bisschen ausprobieren möchte, ohne das Budget komplett zu sprengen. :p

Gibt auch X86-Mainboards mit ECC-RAM ;) Aber ja ich verstehe das, am Ende ist es bei mir im Homelab ja nicht anders, was Usecase und Budget angeht. Sollte ich aber doch mir mal einen NAS-Server selbst aufsetzen, würde ich dafür dann wohl was mit ECC machen.

Da bin ich im Originalpost nicht drauf eingegangen, weil das sonst den Rahmen etwas gesprengt hätte. Geplant ist PBS in einem LXC laufen zu lassen, um dort nächtlich Backups/Snapshots zu erstellen und diese dann auf eine NAS zu schicken die extern bei meinem Vater liegt. Um das 3-2-1 Backup System auch richtig umgesetzt zu haben, hatte ich überlegt auf LTO-5/6 Tapes weitere circa halbjährliche Backups anzulegen, das ist aber noch Zukunftsmusik da möchte ich erstmal soweit den Server aufgesetzt haben und die NAS Backups reichen dann hoffentlich fürs Erste.

Naja, seit Version 8.3. erlaubt der PBS auch "removable Datastores", also z.B. externe USB-Laufwerke, die sind doch deutlich budgetfreundlicher als Tapes (auch wenn die natürlich mehr streetcreds unter Nerds bringen ;) ) und performanter. Gemeinsamer Nachteil: Man muss ans wechseln/abstecken denken, damit sie bei einen Ransomwareangriff nicht mit verschlüsselt werden.
Zu LXC: Das wird offiziell nicht unterstützt, da man dann ja kein unabhängiges Backup vom Host hat. Beschrieben aber (aus gleichen Grund von abgeraten) wird die Installation direkt auf dem Host: https://pbs.proxmox.com/docs/installation.html#install-proxmox-backup-server-on-proxmox-ve
Ich selbst arbeite mit einer PBS-VM, deren Backups ich zusätzlich auf einen PBS auf einen vserver und eine externe Platte repliziere. Zusätzlich mache ich von den wichtigsten LXCs/VMs ein wöchentliches vzdump-Backup mit der nativen Funktion von PVE auf einen Cloudspeicher, um notfalls auch ohne PBS noch ein (älteres) Backup zu haben. Die dabei erzeugten vma-Archive brauchen zum Backup- und Restore keinen laufenden PBS, nehmen aber dafür in der Summe deutlich mehr Platz weg, da sie immer alle Daten sichern und kein inkrementelles Backup erlauben.
Das mit der Replikation auf ein offsite-NAS ist grundsätzlich eine gute Idee, ich würde dafür dort aber (falls das NAS das unterstützt) auf der NAS eine PBS-VM anlegen, um direkt die native sync-Funktion von PBS nutzen zu können ("remote datastores"). Falls deine Uni einen Cloudspeicher für Studis anbietet, wäre der sonst auch noch eine mögliche Variante (und sei es nur für seltener gesicherte vmas als zusätzliche Absicherung).
Die 3-2-1-Strategie kennst du, also dass man neben drei Kopiem (Produktivdaten + zwei Backups) auf mindestens zwei verschiedenen Medien und wenigstens eine davon offsite vorhalten sollte?

Macht es dann überhaupt Sinn, wenn ich nur ein Bootlaufwerk habe (Der Spiegel wird wohl aus Platz und Kostengründen nix :( ) das mit ZFS als Dateisystem laufen zu lassen oder sollte ich das besser einfach auf ext4 oder ähnlichem laufen lassen was nicht so schreiblastig ist wie ZFS?

ZFS hat außer RAID noch genug eigene Vorteile, da muss man abwägen, ob die einen das wert sind (Kompression auf Dateisystemebene, Replikation, Fehlererkennung...) ;) Grundsätzlich könntest du auch erstmal mit nur einen Laufwerk als Bootdevice anfangen und das später zum spiegel erweitern, dazu gab es mal was hier im Forum. Ich habe das aber bisher auch nicht und als todo bei "genug Geld über" eingeplant. Bei meinen mini-PCs ist das Problem, dass da teilweise gar nicht der Platz da ist, bzw. man da tricksen/frickeln muss. Im Homelab akzeptabel, auf der Arbeit (bin Sysadmin) würde ich das so definitiv nicht machen.

Generell ist es eine gute Idee (wie du es machst) sich im Vorfeld Gedanken darum zu machen, was man eigentlich erreichen will und die dafür am wenigsten schmerzende Konfiguration zu entwerfen, statt einfach draufloszubasteln. In der Umsetzung werden sich dann noch Sachen ändern, aber dann weiß man wenigstens schon, wo man hinwill