Das mit den Scripten ist ein guter Hinweis. Ich schaue mir aber eh immer erst an was ich ausführe. Ich bin zwar kein UNIX Crack, aber ein bisschen was von dem was dann in so einem Script steht verstehe ich, was nicht, recherchiere ich dann. Wenn ich gar nichts mit anfangen kann, lasse ich immer die Finger davon oder teste es erst auf einem Testsystem um quasi Reverse Engineering zu versuchen.
Das ist eine gute Vorgehensweise Mein Hinweis kam halt, weil mein (zugegeben subjektiver) Eindruck ist, dass der Durschnittsredditer in den einschlägigen Subs diese Skripte eher nimmt, um genau das (also die Beschäftigung mit ihrer Funktionsweise) zu vermeiden. Ad Testsystem: Da ist natürlich der Vorteil von ProxmoxVE, dass man sich schnell eine VM (auch ProxmoxVE selbst) oder Container als Testumgebung aufmachen und nach Benutzung wieder wegschmeißen kann.
Ich denke die Wichtigkeit von Backups verstehe ich und will ich auch gar nicht in frage stellen. Ich halte aber sowas wie 3-2-1 für ein HomeLab (dem was ich damit vorhabe) für übertrieben (kann aber natürlich jeder machen wie er mag). Das ist m.E. etwas für produktive Business Umgebungen wo es bei Ausfall auch um Geld geht.
Naja, das kommt darauf an, wie wichtig einen die Daten sind. Es gibt Leute, die keine Lust haben ihre digitalisierte Musik- und Filmsammlung erneut aus ihrer CD- und DVD-Sammlung erstellen zu müssen. Oder Angst um ihre Urlaubsphotos haben. Ich selbst habe vor zukünftig alle meine wichtigen Dokumente mittels paperless-ngx zu digitalisieren, damit ich nicht mehr danach suchen muss für meine Steuererklärung. Wenn diese Daten also so wichtig sind, dann handelt es sich um eine Produktionsumgebung, auch zuhause!
Vor allem finde ich zwei Kopien der Primärdaten gar nicht mal sooo viel. Veeam empfiehlt ja auch mindestens eine Kopie auf einen Medium zu haben, dass nicht mit einen PC verbunden ist oder andersweitig unveränderbar (und somit gegen eine Ransomwareattacke auch gegen die Backups geschützt). Ich habe mal einen Typen kennengelernt, der eine kleine Agentur für Grafikdesign (wenn ich mich richtig erinnere arbeitet nur er und vielleicht noch ein bis zwei weitere Personen darin) betreibt. Da er weder das Budget noch das Wissen den Betrieb eines Servers hat, ist seine Backupstrategie folgende: Er hat zwei externe Festplatten. Eine nimmt er am Montag mit ins Büro und sichert da dann jeden Abend eine Sicherung von den Büro-PCs und steckt sie dann (bis zum nächsten Abend) ab. Am Freitag nimmt er sie mit nach Hause. In der Woche darauf wechselt er dann zur anderen Platte. Er hat also damit seine zwei Kopien und eine davon lagert er immer noch außerhalb. Wovor sein Setup aber nicht schützt, wenn innerhalb der letzten paar Wochen beide Laufwerke kompromitiert wurden oder unbemerkt anfangen kaputt zu gehen. Trotzdem ist seine Strategie für eine Low-Budget-Umgebung gar nicht so schlecht, er könnte schließlich jederzeit auch noch eine dritte/vierte Platte für zusätzliche monatliche Backups dazunehmen und die dann wieder durchwechseln.
Und in Veeams Text steht ja auch, dass das Konzept so von einen Photographen stammt, auch nicht gerade der typische Enterprise-ITler
Viel wichtiger als das Backup ist aber die Wiederherstellung: Das sollte regelmäßig getestet werden. In professionellen Umgebungen automatisisert (siehe:
https://blog.koehntopp.info/2023/08/23/dont-say-backup-say-restore.html und
https://blog.koehntopp.info/2017/02/01/nobody-wants-backup-everybody-wants-restore.html ), im Homelab wenigstens von Zeit zu Zeit von Hand. Wenn man den ProxmoxBackupServer einsetzt, kann man das über verify-Jobs teilweise automatisieren (da diese überprüfen, ob die Daten noch korrekt vorhanden sind), von Zeit zu Zeit sollte man dann mal alle LXCs und VMs versuchsweise aus den Backup wieder herstellen. Das Backupprogramm restic (und sicher auch andere) erlauben beim verify-Modus auch einen restore zu simulieren, auch das kann man gut für regelmäßige, automatisierte Tests nutzen.
Nichts ist ärgerlicher als bei einen Backup im Ernstfall festzustellen, dass die Wiederherstellung nicht funktioniert.
Ich dagegen will nur meine IoT und Cloud Dinge lokal bringen und weiterhin eine NAS haben und einen Mediaplayer.
Mit dem Platten Setup was ich anstrebe, hab ich überall mindestens ein Mirror (außer beim Hypervisor). Ja das ist kein Backup, aber die Wahrscheinlichkeit vom Ausfall aller Platten gleichzeitig ist schon recht gering.
Zum Punkt wenn mal die Hütte abbrennt: dann hab ich wirklich viel mehr, wichtigere und andere Sorgen als das mein HomeLab kein Datensicherung hatte.
Wenn nur die Hypervisor Platte ausfällt, nutzen mir alle Backups nichts, weil das nur eine M2 SSD ist und ich davon keine im Schrank liegen habe. Also selbst mit Amazon Prime muss ich mindestens 24 Stunden ohne HomeLab auskommen.
Solange du nichts wichtiges darauf hast, mag das stimmen, aber der Appetit kommt mit den Essen

Sobald wichtige Dokumente in deiner Privatcloud liegen, sieht es schon anders aus (siehe oben).
Das ist aus meiner Sicht auch die einzige richtige Schwachstelle an meiner Hw. Der fehlende 2te M2 Slot für den Hypervisor. Daran kann man aber noch arbeiten.
Ich werde erstmal auf eine externe HDD zusätzlich sichern. Die Synology ist wie gesagt - verkauft.
Wenn mir das mit der externen HDD zu unsicher / doof ist. Werde ich nach einer 2bay NAS bei Ebay schauen.
Vielleicht gibt es hier ja eine Empfehlung was ich da nehmen kann und den WAF nicht zu sehr strapaziert. Dachte da an irgendein altes 2bay Modell von qnap oder Synology. Die NAS soll ja dann nichts machen außer ein 2nd Backup vom HomeLab.
Bei vielen Threads hier bekomme ich den Eindruck, dass proxmox gar nicht mal so stabil ist wie ich dachte. Gefühlt ist allein updaten schon ein Risiko. Das ist aber nur so ein Gefühl. Ich halte das bei meinem Zeug was ich habe eh immer so, dass ich Updates erstmal liegen lasse und diese nicht immer sofort bei Release installiere. Ist bei Windows schon immer so gewesen und andere Hersteller haben inzwischen ja auch angefangen neue „Features“ in der Masse zu testen.
Ich danke euch aber selbstverständlich für alle die guten und auch wirklich wichtigen Hinweise. Aus dem Grund habe ich ja auch erst den Thread eröffnet.
Der Eindruck täuscht ;-)
Hier sind mehr Profis unterwegs, als vielleicht in anderen Foren. Und Profis legen mehr Wert auf Zuverlässigkeit, als ein Bastler. (Ja, solche pauschalisierenden Aussagen sind nicht gut - bitte mit etwas Abstand betrachten.)
Nicht nur das die meisten Profis hier sind halt Sysadmins oder andere Infrastrukturleute, keine Feature-Entwickler. Im bereits oben verlinkten Blog hat der Autor das mal umrissen:
https://blog.koehntopp.info/2008/05/30/the-importance-of-fail.html
https://blog.koehntopp.info/2015/03/27/go-away-or-i-will-replace-you.html
Sein Argument geht ungefähr wie folgt: Infrastrukturleute (wozu er auch Leute wie die Linux-Kernelentwickler oder Leute die Heizungen warten und Stromnetze betreiben, zählt) werden danach gemessen, wie oft die Infrastruktur ausfällt und wieviel nicht reparierbarer Schaden entsteht ( beim Linux-Kernel, also ob durch ein Update plötzlich Datenverluste auftreten). Feature-Entwickler dagegen danach, wieviel neuen geilen Scheiß sie mit dem letzten Release reingebracht haben. Die Proxmox-Entwickler sind da meines Erachtens nach ein wenig dazwischen, da ihr Produkt ein Infrastrukturprojekt ist, aber tatsächlich ja neue Features reinkommen müssen. Wie dem auch sei: Beide Mentalitäten haben gewisse Konflikte. Für Feature-Entwickler ist "worse-is-better" eine super Herangehensweise: Wenn die neue Version von einer Bildbearbeitung furchtbare Bugs hat, aber dafür durch die neuen Features die Benutzer trotzdem produktiver sind, dann sind diese Bugs letzten Endes kein Grund die neue Version nicht rauszubringen. Wenn dagegen die neue Version vom ProxmoxBackupServer Backups verliert, aber dafür S3-Support hat, würde das trotzdem niemand nutzen wollen, dem seine Daten wichtig sind

Zu worse-is-better:
https://en.wikipedia.org/wiki/Worse_is_better
In Bezug auf die User hier: Wer als Sysadmin, Devops-Engineer oder ähnliches seine Brötchen verdient, der erwartet von der Infrastruktur, dass sie keine Ausfälle hat. Jeder Ausfall ist eine Katastrophe, im besten Fall, weil er Arbeit macht, im schlimmsten, weil wichtige Daten verloren gehen oder Geld kostet (im allerschlimmsten Fall bis zur Pleite). Um das zu vermeiden schmeißt man dann entsprechend Geld für die entsprechende Technik darauf (zusätzliche Laufwerke für RAID, ECC-RAM, redundante Netzwerkanbindungen, Backups, Backups, Backups) und bezahlt Leute dafür, die Systeme bis ins letzte Detail zu verstehen und genau darauf (Ausfallsicherheit) zu optimieren.
Homelabber (die nach meinen Eindruck den Großteil der reddit-Subs zu Proxmox und Co stellen) interessieren sich dagegen in erster Linie dafür, dass sie möglichst viele, fancy Funktionen haben, ohne das dass ihr Budget und ihre Wissens- und Zeitgrenzen sprengt.
Mit anderen Worten (und das ist natürlich auch eine sehr grobe Vereinfachung): Sie sind mehr Feature- als Infrastrukturleute. Und genau darum halte ich ProxmoxVE nicht für das erste Mittel der Wahl für einen Heimserver, weil es eben dieses Wissen um Infrastruktur braucht bzw. die Bereitschaft sich dieses anzueignen und auch unter dieser Annahme entwickelt wird. Während man bei den gängigen NAS-Appilcances das eben nicht braucht, weil sie weniger Komplexität abbilden müssen, also auch weniger Potential für Probleme haben.
Jedenfalls geht es hier oft um Mirroring, ZFS checksuming, Ceph, Cluster, ECC Ram, redundantes Netzwerk,
mehrere Netze usw. usf., also um "fortgeschrittene Themen" - da kann der erste Eindruck schon "oh, viele Probleme" sein...
Dieses. Die meisten NAS von der Stange haben nichts davon (ZFS envtl. noch und Software-RAID/Mirror, aber sonst?). Die sich dabei ergebenen Probleme kommen eben durch die oben genannten Anforderungen an Daten- und Ausfallsicherheit im gewerblichen Umfeld. Alleine das Netzwerkdesign für einen Cluster mit Ceph ist samt Anforderungen ist weit über den, was im den meisten Heimnetzen üblich und sinnvoll ist (mindestens drei, besser vier bis fünf Knoten, verbunden durch redundante Netzwerkverbindungen nur für den Datentransfer (mindestens 10 Gbit, besser 25GBit) und mindestens zwei Datenspeicher pro Knoten...). Ich selbst lasse da ja auch die Finger davon, weil das für mein Homelab völliger Overkill wäre.
Hattest Du nicht eine Fritzbox? Die kann kann SMB mit einer externen Platten, ist aber extrem langsam, aber eine Möglichkeit - ohne gleich wieder Geld in die Hand zu nehmen.
Das ist in meinen Augen nicht viel besser als dauerhaft eine externe Festplatte am PI oder Server dranzuhängen.
Hier würde ich dir zu ASUSTOR raten.
Bsp: Nimbustor 2 -
https://www.asustor.com/de/product?p_id=61
Das OS ist sehr flott und nicht überladen. Das NAS bootet unter 1 Minute und ist einsatzfähig im Gegensatz zu dem extrem überfrachteten QNAP OS ( mit QTS 5 bist du wieder bei einer Bootzeit von 5 Minuten - vorher je nach den eingebunden APPS eher 10 Minuten plus).
Naja, da der Grund für die Abschaffung der synology ja der WAF war, weiß ich ja nicht, ob da ein neues NAS da dann besser ist

Dafür müsste man aber wissen, was die Dame des PikAss-Haushalts konkret gestört hat. Persönlich würde ich (wenn ich mir ein NAS zulege), dass eher wie einen Server selbst zusammenstellen und darauf Unraid, TrueNAS oder ein anderes NAS-OS drauf packen, dürfte günstiger kommen.