Hallo,
wir evaluieren gerade Proxmox VE und auch Proxmox Backup Server für ein Projekt. Gleichzeitig wollte ich PBS als alternative Backup-Lösung für unser Institut testen. Es ist ein Samba Fileserver mit momentan knapp 20TB zu sichern. Momentan sichern wir mit Tivoli in unser RZ, was aber sehr sehr langsam ist bei der Rücksicherung von Daten, da viele Teile der Backups dann schon auf Band liegen (große Library). Ich habe mich bei meinem Test vorerst auf einige Shares mit "nur" knapp 10TB beschränkt.
Der erste Lauf hat knapp 2 Tage gedauert (vermutlich auch wegen recht vieler kleiner Dateien). Anschließend habe ich eine GC ausgeführt und kam auf einen Deduplication Factor von 1,78. Soweit so gut - mit Kompression eine Datenreduktion von knapp 50%.
Nun habe ich vor kurzem den zweiten Job gestartet (gleiches Kommando wie der erste). Es fällt auf, dass der Client sämtliche Daten komplett neu durchgeht und überträgt. Es wird also kein Inkrementelles Backup durchgeführt. Dies wäre leider zumindest für diesen Zweck ein No-Go, da wir so nie Backups in kürzeren Abständen fertigen könnten. Im vorhergehenden Test mit Proxmox VE hat das alles anscheinend besser geklappt, soweit dirty pages vorhanden waren.
Ist das immer so oder mache ich etwas falsch?
Viele Grüße
Tim
wir evaluieren gerade Proxmox VE und auch Proxmox Backup Server für ein Projekt. Gleichzeitig wollte ich PBS als alternative Backup-Lösung für unser Institut testen. Es ist ein Samba Fileserver mit momentan knapp 20TB zu sichern. Momentan sichern wir mit Tivoli in unser RZ, was aber sehr sehr langsam ist bei der Rücksicherung von Daten, da viele Teile der Backups dann schon auf Band liegen (große Library). Ich habe mich bei meinem Test vorerst auf einige Shares mit "nur" knapp 10TB beschränkt.
Der erste Lauf hat knapp 2 Tage gedauert (vermutlich auch wegen recht vieler kleiner Dateien). Anschließend habe ich eine GC ausgeführt und kam auf einen Deduplication Factor von 1,78. Soweit so gut - mit Kompression eine Datenreduktion von knapp 50%.
Nun habe ich vor kurzem den zweiten Job gestartet (gleiches Kommando wie der erste). Es fällt auf, dass der Client sämtliche Daten komplett neu durchgeht und überträgt. Es wird also kein Inkrementelles Backup durchgeführt. Dies wäre leider zumindest für diesen Zweck ein No-Go, da wir so nie Backups in kürzeren Abständen fertigen könnten. Im vorhergehenden Test mit Proxmox VE hat das alles anscheinend besser geklappt, soweit dirty pages vorhanden waren.
Ist das immer so oder mache ich etwas falsch?
Viele Grüße
Tim