An dieser Stelle möchte ich auch noch mal betonen, dass PBS kein regelmäßiges Vollbackup macht, sondern immer ein Differentzielles, deshalb ist die Konsistenzprüfung auch so wichtig, da die unveränderten Daten der VMs auch unangetastet dauerhaft im Datastore liegen. Übrigens schreibt die 'Proxmox Doku immer von inkrementeller Sicherung, was im Falle des PBS falsch ist.
Also im Prinzip hast du recht, dass man da aufpassen muss, dass kein Chunk korrumpiert, da das dann womöglich alle Backup Snapshots einer VM betrifft. Oder wenn es schlimmer kommt sogar mehrere VMs.
PBS macht aber keine differenziellen Backups. Jeder Backup Snapshot ist ein vollwertiges Backup was nicht auf Differenzen zu vorherigen Backups beruht. Die schnellen inkrementellen Sicherungen und hohe Platzersparnis liegen nur an der Deduplizierung.
Da der PBS aber für seine Datastores eine eigene Konsistenzprüfung mitringt, ist die Selfhealing-Funktion von zfs eine doppelte Absicherung, die man nicht zwingend benötigt.
ZFS Scrubbing hat den Vorteil, dass es im Gegensatz zum PBS Verify, auch kaputte Chunks reparieren kann, sofern man Redundanz im Pool hat. Dafür haben PBS Verifies aber den Vorteil, dass diese erkennen können ob ein Chunk komplett fehlt und daher das ganze Backup unbrauchbar ist. ZFS kann also nicht prüfen, ob die Backup Snapshots tatsächlich vollständig sind.
Im Idealfall nutzt man also beides. Dann ist man vor Bit Rot geschützt und erkennt auch frühzeitig PBS Bugs oder Nutzerfehler.
Zurück zur Performance: Die Empfehlung von Proxmox wegen der schlechten Performance von zfs auf SSD zu setzen, ist für meinen Geschmack gerade im BAckupbereich die Lösung mit der Goldkante.
Man nimmt nicht SSDs weil ZFS so langsam ist. Sondern SSDs weil HDDs einfach überfordert sind, wenn da ständig wegen der Deduplikation Millionen von Random IO auf die HDDs einhämmern.
ZFS nimmt man da dann vor allem bei HDDs, damit man wenigstens die Metadaten auf SSDs auslagern kann, dass da ein GC Task in Minuten durch ist statt in Tagen oder Wochen.
Aber auch bei SSDs kann ZFS natürlich seine Vorteile haben.
Also, ich hätte erwartet, dass eine offline Deduplizierung vielleicht nochmal 20 % 'Platzersparnis bringt, vor allem da ja in der Doku angegeben ist, dass die Deduplizierungsrate bei 4 MB-Chunks nicht so effizient ist.
Die Frage ist aber, wie gut sich das dann noch ein zweites mal Deduplizieren lässt. Du deduplizierst dann ja bereits komprimierte und eventuell verschlüsselte Blöcke.