Hallo zusammen
Wir haben auf einigen Systemem sehr viele ziemlich kleine Dateien die wir regelmäßig sichern müssen. Diese liegen auf VMs in Ceph. Da Ceph bei solchen sehr kleinen Dateien und vielen Zugriffen sehr langsam ist, dauert die Sicherung auf Band trotz einer relativ kleinen Datenmenge mehrere Stunden. Da wir unsere Sicherung auch aus Platzgründen neu aufstellen müssen haben wir uns ein neues Konzept ausgedacht mit dem wir das lösen wollen.
Die Idee ist, einen Backup-Server zu erstellen, der genug Speicherplatz hat, um die zu sichernden Daten zwischen zu speichern. Die große Menge kleiner Dateien wird dabei jeweils Sonntags in einem frischen tar-Archiv gelagert. Täglich wird dann jeweils das tar Archiv mit den neuen oder geänderten Dateien aktualisiert, bis das tar-Archiv am nächsten Sonntag wieder durch ein frisches ersetzt wird.
Von diesem Zwischenspeicher aus soll dann täglich die Datensicherung erfolgen. Dadurch können wir die kleinen Dateien als großen Blob sichern.
Bei der Hardware müssen wir ein wenig aufs Budget achten. Daher soll der Speicher aus normalen Consumer SSDs bestehen, die wir an einem "SSD-fähigen" HBA anschließen. Den Storage würde ich dann mit Btrfs oder mit ZFS als Software RAID5 bauen.
Hat jemand Anregungen zu diesem Konzept? Ideen wie man das besser machen kann? Irgendwelche Katastrophen in Sicht, an die wir gerade nicht denken?
Außerdem:
Wir haben auf einigen Systemem sehr viele ziemlich kleine Dateien die wir regelmäßig sichern müssen. Diese liegen auf VMs in Ceph. Da Ceph bei solchen sehr kleinen Dateien und vielen Zugriffen sehr langsam ist, dauert die Sicherung auf Band trotz einer relativ kleinen Datenmenge mehrere Stunden. Da wir unsere Sicherung auch aus Platzgründen neu aufstellen müssen haben wir uns ein neues Konzept ausgedacht mit dem wir das lösen wollen.
Die Idee ist, einen Backup-Server zu erstellen, der genug Speicherplatz hat, um die zu sichernden Daten zwischen zu speichern. Die große Menge kleiner Dateien wird dabei jeweils Sonntags in einem frischen tar-Archiv gelagert. Täglich wird dann jeweils das tar Archiv mit den neuen oder geänderten Dateien aktualisiert, bis das tar-Archiv am nächsten Sonntag wieder durch ein frisches ersetzt wird.
Von diesem Zwischenspeicher aus soll dann täglich die Datensicherung erfolgen. Dadurch können wir die kleinen Dateien als großen Blob sichern.
Bei der Hardware müssen wir ein wenig aufs Budget achten. Daher soll der Speicher aus normalen Consumer SSDs bestehen, die wir an einem "SSD-fähigen" HBA anschließen. Den Storage würde ich dann mit Btrfs oder mit ZFS als Software RAID5 bauen.
Hat jemand Anregungen zu diesem Konzept? Ideen wie man das besser machen kann? Irgendwelche Katastrophen in Sicht, an die wir gerade nicht denken?
Außerdem:
- Brauche ich für so ein Software RAID5 eine Menge CPU Power?
- Welcher HBA eignet sich für sowas? TRIM muss ja durchgereicht werden etc. und bei den einschlägigen Herstellern finde ich deren Werbe Bla Bla irgendwie verwirrend.