das problem ist nicht der storage unter deiner VM, der spielt absolut keine rolle. das problem ist dass das backup in 4M chunks erfolgt, und jeder chunk einen fixen bereich deiner disk abdeckt. wenn du jetzt deine mini writes so ueber die disk verteilst, dass sich von vielen 4M chunks ein winziger teil aendert, dann musst du trotzdem jeden dieser chunks neu lesen und schreiben wenn du ihn sichern willst. das ist keine write amplification im klassischen sinne (die haettest du wenn du bei ZFS 4MB blocksize einstellen wuerdest ).
es gibt hier ein paar moegliche loesungen oder improvements:
- das write pattern anpassen, dass die writes lokaler sind und somit weniger chunks betreffen
- temp writes auf nicht gesicherte platten auslagern
- sicherstellen, dass daten die geloescht sind als nullen bzw. loecher zurueckgelesen werden (damit zumindest chunks die wieder komplett leer sein sollen auch wirklich als leer gelesen und wegoptimiert werden koennen, statt dass da quasi "nicht mehr gebrauchter muell" drin steht den PBS nicht als solchen erkennen kann)
fuer den letzten punkt waeren backup logs von ein und demselben backup von beiden seiten interessant, daraus sollte sich naemlich rekonstruieren lassen ob das passiert oder nicht
die chunksize nennenswert kleiner machen fuehrt zu einer explosion der chunkanzahl wodurch dann andere operationen/teile von PBS nicht mehr skalieren (riesen backup indizes, verification und vor allem GC viel teurer, ..)
es gibt hier ein paar moegliche loesungen oder improvements:
- das write pattern anpassen, dass die writes lokaler sind und somit weniger chunks betreffen
- temp writes auf nicht gesicherte platten auslagern
- sicherstellen, dass daten die geloescht sind als nullen bzw. loecher zurueckgelesen werden (damit zumindest chunks die wieder komplett leer sein sollen auch wirklich als leer gelesen und wegoptimiert werden koennen, statt dass da quasi "nicht mehr gebrauchter muell" drin steht den PBS nicht als solchen erkennen kann)
fuer den letzten punkt waeren backup logs von ein und demselben backup von beiden seiten interessant, daraus sollte sich naemlich rekonstruieren lassen ob das passiert oder nicht
die chunksize nennenswert kleiner machen fuehrt zu einer explosion der chunkanzahl wodurch dann andere operationen/teile von PBS nicht mehr skalieren (riesen backup indizes, verification und vor allem GC viel teurer, ..)