Homeserver (nextcloud) backup plan

Alianaa

Member
Nov 11, 2021
13
2
8
25
Hallo,

Ich brauche Hilfe beim planen meines Homeservers (Celeron DualCore, 4GB Ram, 128 GB SSD + 1 TB HDD).

Bislang läuft da nur ein nextcloud. Es ist ein ubuntu mit LUKS verschlüsselung. Backup auf USB ist momentan manuell (und daher löchrich)
Ich möchte auf proxmox umziehen, da ich da einfacher noch andere kleinigkeiten wie pihole und shh-tarpit laufen lassen kann. (hier ist backup und verschlüsselung ziemlich egal)

Ich würde ein encrypted+compressed zfs-dataset erstellen und dort den nextcloud CT anlegen.


Der nextcloud container soll selbstverständlich usb backups haben (und das verschlüsselt). Ich habe 3 optionen ausgemacht:
- PVE Backup auf Shared directory.
Ich befürchte, dass da das PVE backup feature überfordert ist, die backups werden schnell zu viele und zu groß (weil nicht incrementell). Und wenn ich die übertrage, dann sind die ja auch am ziel (und während übertragung!) unverschlüsselt (-> dort muss ein encrypted fs sein).
- Ich nutze nexcloud-backup-app. zum Github. Hört sich eigentlich ziemlich gut an . Allerdings noch beta. (Dass da in den Mainainance mode geschalten werden muss stört mich eigentlich nicht). Vom CT selbst mach ich dann gar keine Backups.
- Ich erstelle regelmäßig zfs-snapshots und nutze zfs send als backup. Vieleicht mit hilfe von Syncoid.
Da ist verschlüsselte und komprimierte übertragung aktiv (weil das dataset so ist). Incrementelle übertragung ist auch möglich.
Gibt es hier irgendwelche Fallstricke? Das erscheint mir so naheliegent, dass ich mich wundere, dass PVE das nicht direkt anbietet.
(Nachteil: Man bräuchte zfs datasets für jede VM/CT falls man die einzeln zurückspielen will.)

(Proxmox backup server kommt nicht in frage. Das brauch zu viel Leistung)
 
(Proxmox backup server kommt nicht in frage. Das brauch zu viel Leistung)
das verstehe ich nicht - genau der PBS ist der Grund, warum man in einer Anzugträgersitzung gegen VMware ankommt - vor dem PBS war es einfach das Backup, welches "totargument" war - jetzt sehe ich da nur noch einen - Stop der VM und schon rauscht das Backup komplette Zeit durch die VM.
Das ist meiner Meinung der einzige Nachteil zu Nakivo, Veeam usw.
Desweiteren läuft der PBS ja sicher auf eigener Hardware und somit ist es doch egal, wenn der mal "arbeitet" - dafür ist er ja da. Ansonsten ist nur das erste Backup bissl "stressig"
 
Wenn dein ganzer Host nur 4GB RAM hat würde ich da kein ZFS nutzen wollen. PVE will seine 1-2 GB, ZFS will seine 2-4 GB und Nextcloud eigentlich auch seine 2-4 GB RAM wenn du es richtig nutzt mit OPcache, Redis, MySQL caching und vielleicht noch einigen Plugins. Und pihole und Co kommen dann ja noch oben drauf. Da würde ich schon minimum 8 GB RAM haben wollen.

Was ich früher auf dem Raspi mit Nextcloud gemacht habe wegen Backups war regelmäßiges maintaince mode über CLI an, Mysqldump für das DB Backup, dann wurde der NC Dataordner und das DB dump über rsync auf eine verschlüsselte (veracrypt oder LUKS) USB HDD synchronisiert und danach der maintaince mode wieder deaktiviert.

Backups über VZdump machen wie du schon sagst keinen Sinn wegen fehlenden inkrementellen Backups bzw fehlender Deduplikation. Bleibt dir also eigentlich nur ein Backup der einzelnen Ordner wie z.B. oben mit rsync beschrieben. Der PBS wäre natürlich eine feine Sache, aber der will auch Minimum 2 GB RAM haben und sollte am besten nicht auf dem selben Host laufen. Mit dem würden aber auch inkrementelle und verschlüsselte Backups laufen.
 
Last edited:
Ich falle mal das feeback zu den optionen zusammen:

1. PVE backup ist raus weil nicht inkrementell
2. nextcloud-backup-app (oder manuell) wäre eine gute lösung
3. zfs snapshot + send ist auch doof weil zu wenig RAM für ZFS
4. PBS ist der Königsweg. Aber auch zu wenig RAM (und am besten sollte es offsite sein)

-> Ich probier im aktuellen setup ein bisschen mit PBS rum. Falls mir das gefällt werde ich halt den RAM aufrüsten. Zum Glück ist der nicht überteuert :)
 
-> Ich probier im aktuellen setup ein bisschen mit PBS rum. Falls mir das gefällt werde ich halt den RAM aufrüsten. Zum Glück ist der nicht überteuert :)
Hängt immer ganz von der Menge ab. Ich denke die meisten betreiben hier ihre Heimserver mit 16 - 128 GB RAM. Upgrade auf 128GB ECC DDR4 RAM sind dann auch mal eben 800€. Du bist da mit 4GB schon echt gaaaanz unten am Spektrum. Will man wirklich Spaß mit PVE haben sollte man schon einen gewissen Mindeststandard an Hardware haben.
 
Ich bin der festen Meinung, dass ZFS für einen Homeserver nicht "günstig" ist - da gibt es ja noch andere Methoden. ZFS hat ansprüche und das zurecht - Keep it simple
Also günstig in Bezug auf Anschaffungskosten und Unterhaltskosten definitiv nicht. Aber ich persönlich möchte hier auch kein ECC und ZFS mehr daheim missen. Alles was hier daheim nicht mehr mit ECC RAM, Enterprise SSDs und ZFS läuft ist für mich nicht mehr vertrauenserweckend und wird von mir nicht mehr für wichtige Daten/Dinge benutzt. Wenn ich eine Datei speichere, dann erwarte ich auch, dass die Datei 1-zu-1 genau so über Jahren erhalten bleibt ohne das da unbemerkt Daten korrumpiert werden und die Daten zerstört werden. Ext4, xfs, NTFS und Co können das alles nicht gewährleisten und haben keine Ahnung ob oder wieviel da an Daten über die Zeit kaputt gehen.

Ab er ja, ZFS hat da schon seine Ansprüche und will da auch entsprechende stabile Hardware. Da bringt das sicherste Dateisystem, Raid und Backups auch nichts, wenn man sich z.B. keinen ECC RAM holt und dann die Daten im RAM schon kaputt gehen, bevor sie überhaupt auf die Laufwerke geschrieben werden. Oder wenn die SSDs keine Powerloss Protection haben und dann beim Stromausfall die asynchronen Daten verloren gehen, die sich noch im RAM Cache befunden haben.
 
Wir reden aber schon noch im HomeBereich? ;)
Also wenn meine MariaDB den Cache speichern will und dann geht meine Stromversorgung (hey - in meinem Haus immer selber gemacht) in die Krütze, dann bin ich froh die Sicherung von VorVorVorGestern zu haben. Ist halt Home
Ich verstehe jeden, der sag, FullBackUp ala Proxmox auf USB-HD reicht vollkommen
Das Thema schweift aus - und sollte einen neuen Thread bekommen: "Proxmox vs VMware" - das letzte Argument hat der PBS fast zu 85% eleminiert - aber das ist Enterprise.
Das ganze gehackel über die VMs und Datastores passiert täglich in jeder VM-Umgebung - genau wie ich es gepostet habe - und das ist gut - ich will den häckmäck mit CT's und deren Updates nicht mehr ... grrrr jetzt schweife ich selber wieder nach Enterprise

Home = keep it simple - orientiere nach Kritikalität - mein Mailserver darf vier Tage off sein!!!

BTW: mein PBS - jaaa, den habe ich im Home - hat gerade mal 8 GB RAM und verkraftet locker 16TB
 
Verfügbarkeit und Single-Point-Of-Failure ist mir daheim da auch relativ egal. Läuft ein Service mal ein paar Tage nicht, dann ist das kein Weltuntergang. Das Einzige, was ich hier hochverfügbar habe, ist meine OPNsense und mein PiHole, damit wenigstens das Internet immer geht.
Was ich aber wichtig finde ist die Datenintegrität. Also das da von Anfang bis Ende einmal komplett verifiziert wird, dass da die Daten nicht irgendwo zwischendrin korrumpiert wurden.
Ich habe hier daheim schon genug TBs an Daten verloren, weil da z.B. schon 3 mal der RAM langsam kaputt ging und dann über mehrere Monate im Sekundentakt die Daten im RAM zerstört hat (und damit auch jede Datei auf dem NAS, die von dem Rechner schreibend geöffnet wurde) und kein ECC da war um das automatisch zu korrigieren bzw um mich wenigstens zu warnen, dass ich da gerade alles an Daten kaputt mache was ich öffne. Da konnte ich in Windows 10 vier mal von der selben lokalen Datei die SHA512 berechnen lassen und hatte 4 verschiedene Prüfsummen....hat Windows überhaupt nicht gestört und lief fröhlich weiter aber alles was ich editiere oder kopiere ist natürlich danach kaputt.
Oder 10 Jahre an Familienfotos sind hier auch mal verloren gegangen, weil mir da eine HDD kaputt ging. Da brauchte ich dann ein paar Wochen um eine neue HDD zu kaufen und in der Zwischenzeit hatte dann auch meine Backup USB-HDD den Geist aufgegeben.
Ransomware hatte ich hier jetzt zum Glück noch nicht, aber gegen sowas sollte man sich ja auch daheim schützen.
Also Minimum 2 Backups für alles sind hier bei mir jetzt Pflicht. Einmal ein automatisiertes und immer aktuelles Backup und ein offline/offsite Backup was nie aktuell ist, aber dafür nicht von Feuer, Einbrüchen, Ransomware und Co betroffen sein kann.
Nur das beste Backup bringt halt nichts, wenn man nicht sicherstellen kann, dass da die Daten überhaupt gesund sind, bevor man sie in das Backup schreibt. Sagen wir z.B. ich verschlüssele hier ein Rechner und speichere die Iso mit dem Wiederherstellungssschlüssel auf dem NAS. Hätte ich da jetzt kein ZFS auf dem NAS, was regelmäßig alle Daten auf ungewollte Änderungen prüft und diese repariert, dann könnte dort jederzeit ein Bitflip die Daten der ISO verändern. Ein einzelner Bitflip wäre bei einem JPG oder ähnlichem nicht weiter tragisch, dann hat ein Pixel halt mal eine andere Farbe. Aber wenn der Bitflip z.B. den Wiederherstellungsschlüssel betrifft, dann wäre das echt übel. Mit NTFS, ext4 und Co bekommt man ja nicht mit wenn eine Datei ungewollt verändert wurde. So eine Wiederherstellungs-ISO will man ja normal nie öffnen, aber wenn man sie dann doch mal nach Jahren benutzen muss, dann will man sich auch sicher sein, dass die auch noch funktioniert. Und gerade wenn man so eine Datei nur alle paar Jahre mal öffnet, dann bekommt man ohne ZFS und dessen Scrubbing ja überhaupt nicht mit, wenn die defekt ist und dann hat man über Jahre eine kaputte Datei in seine Backups geschrieben. Ich persönlich habe nicht das Geld um meine Backups ewig aufzuheben und alle paar Monate werden alte Backups durch neue Backups überschrieben. Wenn es also über Jahre nicht auffällt, dass da eine Datei kaputt ging, dann hat man auch längst die heile Version der Datei in allen Backups durch die korrumpierte Version überschrieben und die Backups sind sinnlos.

Also wenigstens was den Storage angeht möchte ich hier daheim nicht wieder zurück zu Consumer-Lösungen. Die meisten Consumer können bestimmt nur gut schlafen, weil sie nicht wissen, dass da jederzeit im Schlaf langsam und unbemerkt ihre Daten kaputt gehen. Ich schlafe da jetzt wenigstens besser mit dem Wissen, dass da genug Backups existieren und alle Daten auf Verfall überwacht werden.
 
Last edited:
Ihr denkt alle für meinen Anwendungsfall viel zu weit. Es muss weder schnell sein, noch super-duper sicher. Besser ein schlechtes Backup als keines :)

Ich habe jetzt mal ein paar tagen mit PBS gearbeitet und meinen piHole container abgezogen. Das klappt spitzenmäßig und einfach.
Jetzt mache ich mich mal dran, den nextcloud aufzusetzen.
 
Ext4, xfs, NTFS und Co können das alles nicht gewährleisten und haben keine Ahnung ob oder wieviel da an Daten über die Zeit kaputt gehen.
In 20 Jahren als Dienstleister, habe ich erst ein NTFS mit echt korrupten Daten (durch BSOD) geshen. Alle anderen Daten, welche kaputt gingen, waren durch die Disks verursacht. Alle diese Hardwarefehler wären bei vernünftigen Management vermeidbar gewesen.
Das Backup hat immer geholfen und wenn man sein Backup testet, ist das genau so viel wert.
 
Nur wie willst du da bitte das Backup testen? Selbst ein PBS mit regelmäßigem Verify Job kann ja nur prüfen, ob die Daten immer noch so sind, wie sie vom PVE zum PBS gesendet wurden. Waren die Daten schon auf dem PVE korrumpiert, bevor sie zum PBS gesendet wurden,, dann wird da der Verify Job von PBS auch sagen alles wäre bestens, auch wenn es das nicht ist. Sicher kann man sich da ja nur sein, wenn wirklich alles von Anfang bis Ende mit Prüfsummen und ECC überwacht wird.

ZFS ist für mich da wie ECC beim RAM oder wie mit Backups.Braucht man zwar nur ganz selten, aber wehe es ist nicht da wenn man es doch mal braucht.Nur weil man von einem Backup nur alle 10 Jahre mal Daten zurückspielt heißt es ja nicht, dass da man nicht ständig Backups bräuchte.
 
Ich teste Backups bei meinen Kunden automatisch mit Veeam Sure Backup.
Unter Proxmox muss ich das manuell machen, was ich für die 5 VMs auch ab und zu tue. Ganz einfach ein Recovery testen und dann in der VM die Daten checken.
 
Ganz einfach ein Recovery testen und dann in der VM die Daten checken.
Das ist ja gerade das schwere. Habe ich da z.B. mein Telefonbuch. Dann kann ich zwar checken, ob mein Telefonbuch noch vorhanden ist und sich öffnen lässt, ich kann aber nicht überprüfen ob alle Telefonnummern noch die gleichen sind, die ich ursprünglich dort notiert habe. Da können sich durchaus einige Ziffern in einigen Telefonnummern geändert haben und die Telefonnummern sind nun ungültig. Ob da nun "+491791234567" oder "+491791234568" steht sieht jetzt für mich erst einmal beides valide aus. Da müsste ich dann zum Prüfen schon wirklich alle Nummern anrufen, um zu gucken, ob da noch die Leute drangehen, die ich erwarte.
Oder man stellt halt mit ZFS und Co sicher, dass sich da überhaupt garnicht erst die Nummer "+491791234567" unbemerkt zu "+491791234568" abändern kann, weil das dann beim nächsten Scrub automatisch erkannt und repariert wird. Sofern ich mir sicher bin, dass die initiale Nummer korrekt war, kann ich mich dann auch darauf verlassen, dass die immer korrekt bleibt.
Das Problem ist ja nicht das Daten verloren gehen, sondern das sich Daten unbemerkt verändern. Ist eine Datei weg fällt das früher oder später auf und ich hole die mir aus dem Backup zurück. Ist die Datei aber nur leicht beschädigt, dann fällt mir das vielleicht erst nach Jahren auf oder überhaupt nicht. Dann kann ich ein Video zwar noch abspielen, aber immer an einer Stelle hängt das Video und ich muss den entsprechenden Teil des Videos überspringen. Wäre jetzt beim Video nicht weiter tragisch, beim Passwort Manager, Finanzverwaltung etc aber schon. Oder wenn wie beim Telefonnummern Beispiel plötzlich immer die falsche Person rangeht. Dann würde der normale Consumer wohl einfach denken die Person hätte ihre Telefonnummer mit der Zeit gewechselt. Oder man hätte sich beim notieren der Nummer selbst vertan.
Dass da die Daten im Laufe der Zeit auf der HDD/SSD von selbst verfallen und es nicht sicher ist, dass man in einem Jahr noch genau die 1-zu-1 selbe Datei öffnen kann, die man heute speichert, haben die meisten Leute da garnicht im Kopf.

Sowas wie letztes Jahr mit dem defekten RAM will ich z.B. nicht wieder haben. Normal sollte im RAM nur alle paar Jahre mal ein einziges Bit durch kosmische Strahlung flippen. Bei mir hat aber altersbedingt der RAM angefangen zu versagen. Windows lief problemlos weiter ohne Bluescreens, aber alles was ich an Daten verschoben oder editiert habe war dann zwar noch da und zum Großteil noch ausführbar war aber alles korrumpiert und ungewollt verändert.
Habe dann irgendwann memtest86 laufen lassen und das zeigte dann auch hunderte RAM Fehler pro Sekunde.
Leider hatte ich in der Zeit relative viele Daten auf dem sonst sicheren NAS (ZFS, ECC, alles Enterprise grade) verschoben. Habe dann später stichprobenweise Prüfsummen von Dateien in Backups und von mir in den letzten paar Wochen auf dem NAS verschobenen Daten vergleichen und da waren in Prüfsummen in der Tat oft nicht mehr identisch. Da hat mir der defekte RAM also unbemerkt über Wochen alles korrumpiert, was ich mit dem Rechner irgendwie angefasst habe. Leider auch einige TBs an Daten auf dem NAS die ich dann aus Backups wiederherstellen musste.

Da will ich nicht wissen wie das ist, wenn sowas nicht nach Wochen sondern erst nach Jahren auffällt und man keine Backups etc mehr hat die so alt sind...
 
Last edited:
Ok, dann hast du wirklich den worst Case gehabt. In der Regel fallen. Solche Bitflips sehr schnell auf. Ich weiß nicht wie das bei Client Windows ist, aber die Windows Server laufen bei kleinen RAM Fehlern ganz schnell in BSOD mit Hinweis auf Hardware.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!