Homeserver Rebuild

PikAss

Member
Jan 9, 2025
50
19
8
Hallo Proxmox Freunde,

nachdem ich vor ca. 1 Jahr den „ersten Versuch“ meines Homservers hinter mir habe, habe ich mich dazu durchgerungen einiges zu verändern.
Grob umrissen:
TrueNAS als VM zieht aus und wird ein eigener Host, andere Hardware für pve und Erweiterung der Dienste auf pve. Umbau des Netzwerkes für maximale Komplexität damit niemand mehr versteht was ich überhaupt gemacht habe :) .

Netzwerk:
Cisco CBS350 als zentralen Switch
Fritzbox als WLAN Router und Internetzugang (geplant ist ein VLAN fähiger WLAN Router mit dem ich die WLANs trennen kann z.B. ein IoT, Gast, meine Handys)
Insgesamt 6 VLANs zur Trennung der Dienste und Geräte, zentraler Knotenpunkt soll dann eine OPNSense auf dem PVE sein.

Ausgangslage:
HP 600 G6 Tower mit i5 10500
  • 64GB RAM
  • 2x 1TB SATA SSD als zfs Mirror für pve OS, ISO Images und lokales Backup vom Tag
  • 2x 1TB M2 NVMe als zfs Mirror als Datastore für die Gäste
  • 1 GBit onboard NIC (als WAN Port für die OPNSense)
  • 2.5 GBit PCIe Karte (LAN Port von OPNSense)
  • Keine GPU -> Warum? Ich hatte mir günstig den HP 600 G6 Tower geschossen und mich erst gefreut.
ABER:
Diese OEM Teile sind nicht so erweiterungsfreudig wie man vielleicht denkt. Das OEM Netzteil ist kein ATX sondern irgendwas anderes und hat maximal 200W Begrenzung. Man kann auch nicht einfach ein ATX Netzteil einbauen, weil das OEM Mainboard so komische Anschlüsse hat.
Ergebnis: Sowas mache ich nie wieder, außer ich bin mir sicher ich will den OEM Rechner so nutzen wie er ist und nichts erweitern -> Lehrgeld!

Auf dem HP 600 G6 soll laufen:
VM:
  • Homeassistant OS
  • Nextcloud
  • OPNSense

LXC priv:
  • Jellyfin

LXC unpriv:
  • Nginx proxymanager
  • APT-Cacher-ng
  • Paperless-ngx
  • Paperless-gpt
  • Paperless-ai
  • Immich
  • Ollama KI (als zentrale KI für den paperless Stack und ggf immich)
  • Proxmox Backup Server

Backupstrategie vorerst:
Täglich auf den lokalen 2x 1TB SATA SSD als zfs Mirror für pve OS
Täglich auf einen Dataset der TrueNAS, aber so das ich immer insgesamt eine Woche rücksichern könnte.

Als Datengrab / Backupziel wird ein neuer TrueNAS Host dienen mit 4x 4 TB SAS und 4x 3TB SAS Platten.

Ziel ist es mit paperless, immich und nextcloud alles was ich habe zu digitalisieren und mit meinen iPhonese so weit es geht aus der iCloud rauszukommen.

Was haltet ihr von meinem Setup?
Hab ich was vergessen?
Sollte ich was zwingend anders machen?
Gibt es da ein paar Empfehlungen?

Ich weiß, jeder ist da anders, aber je mehr Ideen auf mich einprasseln, desto mehr Gedanken kann ich mir machen, bevor ich alles produtkiv nehme.

Ein erster Punkt wird wahrscheinlich die Firewall auf dem Host sein, diese sollte man auch auf ein externes Gerät verlagern (wie auch bei der NAS).
Ich denke mit der Mirror Konfig des PVE hab ich erstmal sowas ähnliches wie "Ausfallsicherheit", aber ja, das Teil muss noch auf einen eigenen Host.
Zum ersten Schritt in Richtung VLAN, Firewall etc. denke ich reicht das Teil aber erstmal als VM.

Außer die OPNSense VM habe ich alles mit den Proxmox Helper Scripts installiert. Ich weiß dazu gibt es hier teilweise ganz eigenen Meinungen. Das soll aber auch nicht zum Thema werden sondern nur das Gesamtbild vervollständigen.

Ich habe nun versucht hier und da noch ein bisschen zu tweaken und dabei ist mir aufgefallen, dass LXC (bei mir) es so gar nicht mögen wenn man nachträglich an RAM und SWAP rumschraubt. RAM kann ich ja auch während der Helper Scripts editieren, aber SWAP nicht. Ist das normal oder liegt das an den Helper Scripts?

Viele Grüße und allen die das lesen schonmal einen guten Rutsch in 2026 !
 
Für einen privaten Homeserver ist das "zu gross und zu kompliziert, ergo zu anfällig" auf Strecke.
Wenn die M2 SSDs Consumer sind, und nicht Enterprise, sind die mit den VMs auf ZFS Ratz fatz "durch", Stichwort Wearout. Meine Samsung 980 stehen jetzt bei 76%, deshalb habe ich jetzt erstmals Konfigs optimiert: Kein Swap (auf ZFS), Loggings reduzieren etc. pp.

Außerdem sehe ich keine Handlingsfreiheiten in Deinem Setup, wenn es Mal kracht. Ausfallszenario für TrueNAS? Und wenn der PVE wegbricht? Oder der WLAN Router oder der Switch? Wie schnell bekommst Du das bei Totalausfall wieder zum laufen, wenn Du unter Stresslevel "nichts geht mehr" stehst?

Kiss:
Alles auf einem PVE packen, und ein PBS dazu. Im Fall der Fälle dient der PBS als Backup PVE.
Warum TNas auf eigener nicht redundanter Hardware? Performance ist zu Hause kein Thema.

Ich persönlich vereinfache mein über Jahrzehnte gewachsenes Setup gerade in diesem Richtung: mit weniger Komplexität und einfachen Fehlerszenarien Flexibilität und Stresslevel optimieren, Freizeit erhöhen und WAF genauso

Ich habe einen Selbstbau i5 12400, 32G, 2x 512M M2 SSD im ZFS Mirror, 4x 8T LVM jeweils Mirror, 4T und 8T LVM für Backup etc alles verschlüsselt. Dazu alten Server oder alten Gaming PC mit jeweils 16G als Ersatz PVE inkl. als remote PBS. Habe jetzt 2x Enterprise SSDs in Planung.

OPNSense, Mailcow, Univention Server (DC), FHEM, InfluxDB, Grafana, Plex,
Fritzbox und VLAN Switch Zyxel.

SLA: Frau und Kind motzen nach 2 min. Ausfallzeit spätestens

Heimautomation mag auch keine Ausfallzeiten (Balkonkraftwerk, Strom und Wärmepumpe usw etc PP), und mein Reporting mag keine Lücken.

Der Server langweilt sich bei 50% RAM Auslastung und 0% ... 0.2% IO delay, kein SWAP vergeben.

OPNSense schreibt stetig: Log und RRD deaktivieren.
Sonst alles ohne SWAP konfigurieren wenn's geht, oder swappiness=10.
Alles mit PBS sichern, auf viele verschiedene Ziele.
 
Last edited:
  • Like
Reactions: Browbeat
Danke für das Feedback. Das mit den SSD ist mir auch schon aufgefallen. Aber für Enterprise bin ich einfachste geizig dafür das es eigentlich nur Spielerei ist.

Das einzig relevante ist Homeassistant, wenn der Rest weg wäre für X Stunden / Tage fällt nur mir das auf.

TrueNAS war mal eine VM und ist schon ausgezogen und ist jetzt ein eigener Host.

Wenn mal das ausfällt … dann müsste ich im Prinzip immer alles mindestens 3 mal haben, auch die FRITZ!Box müsste 3 mal parat stehen etc.
Ich verstehe aber durchaus den Gedanken und möchte den hier jetzt nicht negieren.

Wenn ich richtig Kohle hätte, hätte ich auch einen pve Cluster mit Enterprise Hardware, also auch mindestens workstation Boards mit ipmi, ECC RAM etc.
Sowas ist aber für mich nicht erschwinglich, meine Finanzministerin würde mir den Kopf ohne Kommentar abreißen

Dachte eigentlich das es simpel ist, bis auf das Thema Netzwerk und VLAN.
Das mache ich eigentlich auch nur um in dem Thema fitter zu werden für die Arbeit.
Eigentlich braucht man das so nicht wirklich wenn man eine Firewall hat. Man kann ja auch mit Fw Regeln Teilnehmer voneinander trennen ohne VLAN.

Das mit dem zfs Tuning möchte ich nochmal genauer wissen. Was kann ich tun damit die ssd länger halten.

Also am besten 0 Swap für alles?

Wie sollte ich dann mit OPNSense umgehen um die Lebenszeit der ssd zu erhöhen?
 
Wenn die M2 SSDs Consumer sind, und nicht Enterprise, sind die mit den VMs auf ZFS Ratz fatz "durch", Stichwort Wearout. Meine Samsung 980 stehen jetzt bei 76%, deshalb habe ich jetzt erstmals Konfigs optimiert: Kein Swap (auf ZFS), Loggings reduzieren etc. pp.
ZFS verursacht bei mirrors und default volblocksize keinen nenneneswert grösseren wearout als ext4 und läuft auch problemlos auf consumer.
Also am besten 0 Swap für alles?
wenn du Proxmox auf boot zfs installierst, ist SWAP deaktiviert.

Zum Thema Backup: Backup auf den gleichen Host ist Käse. Dann können wir es lassen :) Dafür gibt es ZFS snapshots.
Mach das Backup auf den NFS von deinem TrueNAS, oder noch besser irgendwo offsite.

Grundsätzlich bin ich mit @neobiker einverstanden, KISS!
Darum sieht mein Setup so aus:

Alter SFF PC als OPNsense mit 10GBit NIC.

SFP+ mikrotik switch

Supermicro TrueNAS System mit single SSD als boot.
RAIDZ2 8 HDDs wide mit zwei consumer SSDs als svdev (würde ich Stand heute mit L2ARC lösen, damals gab es noch kein reboot persistenten L2ARC)

Supermicro Proxmox mit dual nvme SSD boot. VMs wie Nextcloud lagern ihre Dateien extern auf TrueNAS NFS shares.

Alter SSF PC offsite mit PBS. Zwei Sata SSDs als boot und zwei NVME SSDs als Datastore.

Damit erreiche ich:
- Proxmox kernel Update ohne mein Internet zu verlieren
- TrueNAS kann toll backups auf S3 oder offsite ZFS send oder Dropbox oder sonst was machen
- TrueNAS macht per GUI geplante Snapshots usw.
- Proxmox ist rasend schnell, hat nur zwei 1TB drives die zu vielleicht 10% genutzt sind.

Nachteil: Vor einem TrueNAS Update muss ich erst die VMs mit Abhängigkeiten von TrueNAS runterfahren.
 
Last edited:
  • Like
Reactions: Johannes S
Ich habe bisher immer LUKS, Softraid und LVM mit ext4 eingesetzt, das ist für Consumer SSD besser als ein ZFS Mirror, weil im Prinzip non destruktiv. ZFS ist ein Thema für sich, das lerne ich auch gerade erst. Nett, aber teuer.

Optimierungen habe ich ja geschrieben, möglichst wenig unnötige stetige Schreibvorgänge (SWAP, Cache, Logs, ...) bei ZFS mit Consumer SSDs, dann halten sie sicher länger als bei mir. Habe erst bei 73% gemerkt, dass da was nicht passt ... Mal sehen wie gut ich das jetzt optimieren konnte.

Ein DebianVM erstellt auf dem ZFS Mirror ja ein LVM, wobei zB 2G als Swap konfiguriert sind. Swappiness ist 60 im Standard, ein Server läuft prima mit 10. Besser ist gar kein SWAP.
Log Files sollten nicht steting mit Infos, Warnungs beschrieben werden. Ich hatte mich nie um die gekümmert.... sollte man tun.
Jetzt sind ein paar nicht relevante Fehler behoben, und die Logs werden nicht mehr sekündlich beschrieben. Faulheit kostet irgendwann Geld.

Und alte PCs / Notebooks haben wir alle rumliegen, die als Ersatz PVE mal ne VM hosten können. Die Kosten nix. Wenn aber TrueNas nicht auf PVE ist, haste keinen Fallback. Ich brauche also nicht alles 3x, sondern nur meinen alten Server oder PC oder sogar Notebook.

Wenn Ausfallzeit kein Thema ist, super. Nur zu... Hobby ist perfekt.
 
Last edited:
ZFS ... Nett, aber teuer.

Naja, ZFS implementiert diverse Features, die klassische Konstruktionen nicht bieten. Wenn ich mich richtig erinnere, bietet der klassische Stack dies nicht ohne weiteres: transparente Kompression, technisch billige¹ Snapshots, garantierte Integrität und zuverlässige Bitrot-Detection. Mit Redundanz kommen weitere Aspekte wie Selbstheilung hinzu. (Beim mdraid-Mirror ist nicht unbedingt klar, welcher der beiden gelesenen Blöcke nun wohl der Richtige ist; ZFS kennt die Checksumme der Daten und hat somit ein hartes Bewertungskriterium.)

Diese technischen Features und Details wie das "copy-on-write"-Konzept, oder auch der ZIL-on-disk, erzeugen pro Datenblock weitere, zusätzliche Schreibvorgänge auf den Devices, das ist wenig überraschend.

Wenn ich (nach persönlicher Gewichtung - das geht nicht "neutral") die zusätzlichen Funktionen "gegenrechne", ist ZFS nicht teuer sondern spottbillig. ;-)


¹ LVM kann Snapshots, und vielleicht laufen die heute auch rund - meine eigenen Kenntnisse sind definitiv veraltet. Als ich dies zuletzt verwendet habe, wurde damit alles langsam. Während des ganz normalen Betriebs. Ich hatte also den (einzigen) Snapshot so schnell wie möglich wieder entfernt.
Allerdings ist das Entfernen eines umfangreichen Snapshots auch unter ZFS überraschend langsam = technisch teuer. Hingegen geschieht das Erstellen eines Snapshots instantan und das pure Vorhandensein vieler (hunderter, tausender...) Snapshots ist ebenfalls nicht spürbar - dem CoW ist es schlicht egal, ob andere, "alte" Zweige im Baum existieren.
 
Last edited:
¹ LVM kann Snapshots, und vielleicht laufen die heute auch rund ...
Ach herrje, das ist immerhin die Standardinstallation (Default) des PVE, wenn das jetzt angezweifelt wird... NaJa.
Keiner verteufelt hier ZFS, man muss es IMO halt im Kontext (Homeserver, LowBudget) sehen, wollen (wenn man es braucht) , und die Konsequenzen wissen und tragen (bessere SSDs oder kurze Haltbarkeit) und keine religiöse Diskussion daraus machen.
Ich bin dann mal raus, mein Feedback habe ich gegeben.
 
...und keine religiöse Diskussion daraus machen.

Also..., das schockiert mich jetzt ein wenig, dass ich so einen Eindruck hinterlasse :-(
 
Okay, also das localhost Backup ist nur immer von „heute“. Da komme ich dann schnell ran wenn ich tagsüber irgendwas zerstöre bei meinen Gästen. Das eigentliche Backup ist ja auf der TrueNAS und rotiert nicht täglich, sondern alle 7 Tage. Also der erste Tag ist ein Fullbackup, danach Inkremente bis zum nächsten Fullbackup.

Ich meinte ja schon, OPNSense muss auch (wie die Erkenntnis mit der TrueNAS) auf einen eigenen Host.
Eben wegen Ausfall des pve.

Auch der PBS könnte auf einen andern Host, aber pve ist sooo schnell neu aufgesetzt, dann die Backups von der TrueNAS grad rüber und Recover. Denke das ist vertretbar.

Offsite ist noch eine Überlegung, aber ich suche immer erstmal etwas, was nichts kostet. Hatte mal bei Oracle mit dem Free Tier geschaut. Da könnte man ja nachts verschlüsselt was hochladen, aber die AGB sehen im Free Tier vor, das Oracle einfach mal so deine VM dort löschen könnte …

Gefühlt sind aber beide KISS Prinzipe von euch nicht wirklich mehr oder weniger einfach als das Konstrukt bei mir. Zumindest lese ich das so.
Mehrere Server mit mehreren Diensten, ebenfalls Netzwerktechnik im Einsatz die kein Baumarktswitch ist.
Redundanz ist halt das Thema und ist auch der Kostentreiber.
Mit Redundanz kannst du alles maximal kompliziert aufbauen, weil es dann fast egal ist wenn mal irgendwas ausfällt.

Mein Fallback für den Fall der Fälle ist:
Baumarktswitch (ist das was durch den Cisco abgelöst wurde) hinstellen, FRITZ!box auf DHCP, ein paar IPs ändern … alles hat wieder Internet.
Wenn FB kaputt - Pech, muss Vodafone eine neue schicken.
PVE kaputt - HomeAssistant auf nen Pi der noch rumliegt oder auf nem Laptop
Also ein bisschen „Notfall“ hätte ich auch.
Hier zu Hause ist nur wichtig:
Irgendwie kommt man ins internet
Alexa muss laufen
 
Ach herrje, das ist immerhin die Standardinstallation (Default) des PVE, wenn das jetzt angezweifelt wird... NaJa.
Keiner verteufelt hier ZFS, man muss es IMO halt im Kontext (Homeserver, LowBudget) sehen, wollen (wenn man es braucht) , und die Konsequenzen wissen und tragen (bessere SSDs oder kurze Haltbarkeit) und keine religiöse Diskussion daraus machen.
Ich bin dann mal raus, mein Feedback habe ich gegeben.
Ich glaube das sollte keine Diskussion werden, sondern ein Austausch von Wissen werden.
Ich denke mal alles hat Vor und Nachteile, so wie alles im Leben.
Vielen Dank für dein Feedback und deine Meinung.

Danke auch für alle weiteren Beiträge. Ich fand es bis jetzt sehr interessant, weil ich wieder neue Dinge gelesen habe mit denen ich mich beschäftigen kann.
Es gibt ja keinen „perfekten Weg“ den jeder gehen muss.
Alles ist eine Frage von dem was man will/braucht. Am Ende als wirklicher HomeServer auch ein Hobby.

Denn mal ehrlich, der Aufwand … ja alles aus den Clouds raus, aber … am Ende ist es unsere Zeit und es würde auch definitiv schneller und einfacher gehen.
Ob die die und er Cloud mitlesen meine Daten direkt von mir bekommen oder über 2 Umwege ist auch Wurscht. So wie du ein Job, ein Bankkonto, irgendeinen Vertrag hast, bist du sehr, sehr weit weg von Inkognito.
Aber ja, das Gefühl wenn man nicht die Clouds nutzt ist irgendwie besser.
 
  • Like
Reactions: UdoB
Aber jetzt bleibt immernoch eine Frage offen oder ich habe es doch noch nicht richtig verstanden.
SWAP für Gäste Ja/Nein? Wenn ja, was ist ein guter Wert?
 
Okay, also das localhost Backup ist nur immer von „heute“. Da komme ich dann schnell ran wenn ich tagsüber irgendwas zerstöre bei meinen Gästen.
Genau dafür sind ZFS Snapshots super.


Das Märchen „ZFS killt meine SSD“ wird nicht wahrer mit ständiger Wiederholung. Ein QCOW auf LVM kann genausogut mehr write amplification aufweisen als eine ZFS RAW.
 
  • Like
Reactions: Johannes S and UdoB
LVM kann Snapshots, und vielleicht laufen die heute auch rund - meine eigenen Kenntnisse sind definitiv veraltet. Als ich dies zuletzt verwendet habe, wurde damit alles langsam. Während des ganz normalen Betriebs. Ich hatte also den (einzigen) Snapshot so schnell wie möglich wieder entfernt.
Das ist immer noch so. LVM snapshots sind ( ähnlich wie snapshots bei vmware exsi) nicht dafür gedacht lange aufbewahrt zu werden, sondern um eine schiefgegangene Änderung ( update o.ä. ) wieder zurückzurollen oder um vor einen Backup mit tar, restic, rsync o.ä. einen konsistente Stand des Systems zu haben. Sie sollten also sehr schnell wieder gelöscht werden. Bei ZFS hat man das Problem nicht, da sind Snapshots "billig"
 
Last edited:
SWAP für Gäste Ja/Nein? Wenn ja, was ist ein guter Wert?
Swap will man schon haben, wobei das aber kein physikalischer SWAP sein muss:
https://chrisdown.name/2018/01/02/in-defence-of-swap.html
Swap auf zfs ist problematisch, darum wird bei der PVE-Installation keiner angelegt, wenn man zfs für die Systemplatte auswählt:

https://pve.proxmox.com/pve-docs/chapter-sysadmin.html#zfs_swap

Man könnte dafür aber natürlich eine eigene Partition vorsehen.

Ich mache das nicht, stattdessen haben Host und vms bei mir zram swap:
https://pve.proxmox.com/wiki/Zram

Damit nutze ich Teile des Arbeitsspeichers als komprimierte RAM-Disk für swap, habe also ( für eine etwas höhere CPU-Auslastung) Teile des RAM komprimiert
 
Last edited:
  • Like
Reactions: news and UdoB
Gewinnst du viel mit ZRAM?

Verstehe schon nicht wirklich den Nutzen von SWAP.
RAM zurückgewinnen, indem wenig benutztes auf SSD/HDD rausgeschrieben wird, damit mehr andere Dinge im RAM liegen können und dadurch gecached werden?
Im absoluten best case scenario habe ich in meiner 8GB RAM VM mit 2GB SWAP also "8GB RAM sinnvoll nutzbar",
während ohne SWAP im absoluten worst case 2GB mit fast nicht genutzten Dingen belegt sind (anstelle von SWAP) und nur "6GB RAM sinnvoll nutzbar" sind.

Macht das den Braten fett auf modernen Systemen? Naja, man könnte argumentieren, dass es vielleicht nicht immer und für alle viel hilft, aber halt auch nicht schadet auf ext4.

Mit ZRAM erstellst du nun eine fake disk im RAM, mit dem Vorteil, dass der Inhalt komprimiert wird, und dass nicht mehr auf CoW geschrieben wird.
Gewinnst du damit viel? Auch in Anbetracht von ARC?

Bei einem normalen Desktop OS kann ich es verstehen. ChachyOS macht glaube ich auch per default ZRAM. Für Proxmox und VMs bin ich noch bisschen skeptisch ;)
 
Also das mit der "religiöse Diskussion" war etwas übertrieben formuliert, der Post ist bis auf die pauschale LVM Abwertung sehr hilfreich.
Simple suggestive Aussagen wie "LVM ist Mist" und "ZFS killt SSD ist ein Märchen" helfen IMO nicht, da ziehe ich mich normalerweise zurück.

Es wird hier nach Feedback zu einem neu geplantem Homeserver gefragt, mit Consumer SSDs.
Das interessiert mich auch, deshalb habe ich meine bisherigen Erfahrungen gepostet.
Dafür gibt es ein paar relevante Fakten bzgl. ZFS auf Proxmox für VMs, weshalb man beim Setup einiges beachten sollte.

Es schient ja immerhin Konsens zu sein, dass SWAP auf ZFS keine gute Idee ist.
Genau das aber passiert, wenn man "einfach Proxmox auf ZFS" installiert:
Die SSD werden zu 100% mit dem ZFS Mirror zpool belegt, es ist keine Partition für SWAP der VMs reserviert.
Alle VM lande (normalerweise) auf dem zpool rpool/ROOT/pve-1.
Jede VM richtet (normalerweise) ein SWAP ein, das liegt dann auf ZFS dataset der VM im zpool rpool, was man vermeiden möchte.
Viele Wege führen nach Rom, das zu vermeiden.

Liege ich falsch mit meiner Meinung:
1) "QCOW auf LVM" - wenn dann ext4 ;-) - ist wo relevant? LVM Volumes werden direkt (Blockdevice) in die VM gegeben, oder?
2) "LVM/ZFS Snapshot als Backup" zu verwenden ist schlicht falsch. Ein Snapshot ist kein Backup, auch ein ZFS Snapshot nicht. Wenn das Medium defekt ist, sind alle Snapshots inkl. dem Original weg. Man kann von einem Snapshot ein Backup auf ein anderes Medium ziehen, dann ist es ein Backup und steht bei defekt der Hardware für Restore zur Verfügung.

Solche suggestiven oder fahrlässig formulierte Posts ermutigen IMO dazu, einfach unreflektiert Proxmox mit Consumer SSDs und ZFS Mirror einzurichten, ohne sich mit der Problematik und möglichen Alternativen dafür zu beschäftigen.

Fundierte Info's und Hintergründe helfen hier, da ist ja auch vieles geschrieben worden.

Auch ich will hier lernen, weil ich mein derzeitiges Setup für meinen Homeserver inklusive ZFS verbessern möchte.
Man kann das besser machen, als es das Proxmox Setup einrichtet, z.B. indem man die SSD nicht zu 100% dem zpool gibt, sondern eine Partiton für SWAP einrichtet. Oder man kann auch den EXT4 Default für den Proxmox nehmen, mit ein paar Nachteilen und auch Vorteilen.

Was ist denn mit dem ZFS ashift Wert:
Ich lese oft 12 (4K), aber es wird auch 16K (=14) als guter Wert empfohlen, weil nicht jeder einzelne 4K Device Block verwaltet werden muss.
Da das anschließend nicht mehr geändert werden kann, im Gegensatz zu z.B. dem min/max ARC Wert, wären dafür fundierte Erfahrungen/Infos hilfreich.

Ich hoffe ich konnte das jetzt einigermaßen "neutral" formulieren, ansonsten Bitte ich schon mal um Entschuldigung.
 
  • Like
Reactions: Browbeat
Nginx proxymanager
Warum nicht caddy direkt als Plugin auf der OPNSense nutzen?

https://forum.opnsense.org/index.php?topic=38714.0

Man kann das besser machen, als es das Proxmox Setup einrichtet, z.B. indem man die SSD nicht zu 100% dem zpool gibt, sondern eine Partiton für SWAP einrichtet. Oder man kann auch den EXT4 Default für den Proxmox nehmen, mit ein paar Nachteilen und auch Vorteilen.
Interessante Gedanken - vielleicht könnte man ja daraus ein separates Thema machen - mit Ideen, Erfahrungen etc.?
 
Last edited: