Nöö. Deaktiverter SWAP oder ZRAM ist zwar besser, aber noch lange kein Grund für den Kill einer SSD... und anschliessend beschreibst Du, wie man das vermeiden kann.
Vermeiden kann man es nur, weil es "normalerweise so passiert".
Eigentlich haben wir hier ja eine seltsame Beweislastumkehr.um eine "ZFS Märchen" Aussage zu tätigen und dann zu rechtfertigen. Deine Meinung (und der "Märchenerzähler") gehört Dir.
Du behauptest ohne Begründung, ZFS würde für wearout sorgen.
Nicht ich muss dir Begründen, warum das ein Märchen ist, du musst uns begründen, warum angeblich ZFS SSDs killt!
Du hast nämlich diese Behauptung in den Raum geworfen!
Ohne Snapshots, ja.Ich fasse mal das typische Homeserver Szenario zusammen:
Proxmox im Standard (ext4 + LVM) hat mit Cosumer SSDs keinen erhöhten Wearout
Nööö. Oder präziser ausgedrückt "der zusätzliche wearout ist im so kleinen Bereich, dass er total irrelevant ist".Proxmox im Standard mit ZFS hat mit Cosumer SSDs einen erhöhten Wearout
nicht wirklich. Ich bin zwar überhaupt kein Fan von virtueller OPNsene, aber OPNsense macht praktisch keine writes.- wegen OPNSense (stetige kleine writes) -> 8K volblocksize (Standard in Proxmox ist 16K)
Das ist der Output der letzten 11 Tage:
Code:
zroot sync_read sync_write async_read async_write scrub trim rebuild
req_size ind agg ind agg ind agg ind agg ind agg ind agg ind agg
---------- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- ----- -----
512 4.61K 0 0 0 0 0 1.80K 0 2 0 0 0 0 0
1K 20.0K 0 0 0 0 0 11.2K 0 6 0 0 0 0 0
2K 17.3K 0 0 0 0 0 20.7K 0 3 0 0 0 0 0
4K 22.1K 0 43.3K 0 219 0 916K 0 47 0 0 0 0 0
8K 9.58K 30 2.21K 0 504 7 91.3K 327K 10 27 0 0 0 0
16K 4.10K 50 422 0 604 30 63.8K 101K 2 38 0 0 0 0
32K 3.21K 49 50 0 1.56K 38 193K 33.1K 3 32 0 0 0 0
64K 2.64K 20 2.03K 0 2.41K 186 228K 19.0K 3 32 0 0 0 0
128K 64 7 8.96K 0 99 36 591 3.32K 0 22 0 0 0 0
256K 0 0 0 0 0 0 0 0 0 0 0 0 0 0
512K 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1M 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2M 0 0 0 0 0 0 0 0 0 0 0 0 0 0
4M 0 0 0 0 0 0 0 0 0 0 0 0 0 0
8M 0 0 0 0 0 0 0 0 0 0 0 0 0 0
16M 0 0 0 0 0 0 0 0 0 0 0 0 0 0
TLDR:
ZFS wearout ist für 99% der homlabber mit einer modernen SSD kein Ding.
Dafür müssen nur paar grundsätzlich Regeln beachtet werden. Die meisten davon sind per default schon gegeben.
- Nutze mirror, kein RAIDZ (Ausnahme du verstehst pool Geometrie und padding)
- ashift auf default lassen (4k)
- volblocksize auf default lassen (16k)
- kein QLC verwenden
- blockstorage nicht als fileserver missbrauchen
damit ist man bereits auf der sicheren Seite. Will man es noch mehr optimieren, kann man zusätzlich
- SWAP ändern oder deaktivieren
- PLP SSD als SLOG hinzufügen
- unterschiedliche volblocksizes verwenden
- eventuell Daten wie logfiles mittels virtiofs auf datasets schreiben, statt auf vzvols
Last edited: