Nicht vergessen, dass das sehr langsam werden kann. PBS speichert alles als deduplizierte (also keine reinen sequentiellen Lese-/Schreibvorgänge) Chunks mit einer maximalen Größe von 4MB. Ein Chunk kann aber auch deutlich kleiner sein. Sagen wir du hast im Schnitt 2MB pro Chunk und nutzt 2x 10TB HDDs als Raid1. Dann würden auf dem 10TB Datastore 5 Mio Chunks liegen. Jedes mal wenn du nun deine regelmäßigen Wartungsaufgaben laufen lässt, muss da PBS alle 5 Mio Dateien einzeln durchgehen. Sagen wir die HDD hat 120 IOPS und 240 IOPS in der Summe beim Lesen wegen Raid1:
5.000.000 Chunks / 240 IOPS = 5,78 Stunden
Und 5,78 Stunden wären es auch nur, wenn da jeder Chunk nur eine einzige Lese-/Schreiboperation benötigen würde. Da kannst du dich dann schon eher darauf einstellen, dass da Maintaince-Tasks schon mal Tage dauern können. Besonders ein komplettes Re-Verify, wo dann alle 5 Mio Chunks komplett neu gelesen und gehasht werden müssen.
PBS braucht IOPS und das ist das, was du mit nur 2 großen HDDs nicht hast. Sofern du ZFS nutzen willst würde ich da schon noch zwei SSDs als Metadata Storage ("Special Device") oder eine SSD als Metadata Cache (L2ARC mit "secondarycache=metadata") benutzen.
Am besten natürlich einfach ganz auf HDDs verzichten und SSD kaufen, aber bei 2x 10TB scheitert es da dann bestimmt am Budget für einen "kleinen" Server.