Backups erstellen ist weniger das Problem, da alles ab dem zweitem Backup inkrementell ist und die Schreibvorgänge auch eher sequentiell sind. Restores im Ernstfall sind dann schon langsamer, da dort ja die komplette Menge gelesen werden muss und die IO wegen der Duduplikation nicht sequentiell sondern auch random sein kann.
Richtig übel wird es bei den Maintainance Tasks.
Re-Verifys dauern da echt schon lange wenn man regelmäßig alle Backup Snapshots erneut lesen und hashen muss. Und das schlimmste sind die GC Tasks, welche ohne SSDs bei etlichen TBs an Backups wirklich ewig dauern. Nicht vergessen, dass da PBS alles in Chunk-Dateien von max 4MB Größe (in der PRaxis eher so ~2MB) splittet. Hast du da 10TB an Backups dann sind es halt auch gute 5 Millionen an 2MB Dateien. Bei jedem GC musst du dann die Metadaten aller 5 Millionen Dateien mit Random IO einmal lesen und schreiben. Wenn du da ein Raid6 aus HDDs mit 120 IOPS oder so hast und dann 10 Mio mal Random IO machen musst, kannst du dir ja ausrechen wie lange das dauert. Und um das GC kommst du nicht rum. Ohne GC wird ja nichts gelöscht. Ist halt doof, wenn der der GC Task dann den kompletten Tag oder sogar mehrere Tage braucht und währenddessen das NAS zu nichts zu gebrauchen ist, weil die HDDs durchgehend komplett bis zum Anschlag am Durchrattern sind.
Wenn man unbedingt HDDs nutzen will (und hier ist SSD-only angeraten), dann eigentlich nur in Verbindung mit SSDs für die Metadaten, was aber der drunterliegende Tiered Storage für dich erledigen muss.