Hallo Community,
ich habe ein kleines Vorhaben, finde aber irgendwie nicht die richtigen Source-Daten dafür.
Vorhaben: Ich haben einen Promox Node sowie einen Proxmox Backup Server laufen. Die Backups landen daily im Snapsho-Verfahren auf dem Promox Backup Server. Soweit so gut und es läuft auch alles. Nun möchte ich die Backup-Daten aber nochmal extern auslagen in Form davon, dass ich die Backup-Daten auf ein HiDrive hochladen möchte. Promox Node = ZFS Local Storage Pool, Proxmox Backup Server = ZFS Local Storage Pool
Das Script ist auch soweit geschrieben und funktionieren tut es auch (mit anderen Pfaden getestet).
Nun stellt sich mir aber die Frage, welche wirkliche Backup-Daten muss ich hochladen? Auf dem Backup Server (ZFS backuptank01) Storage finde ich lediglich unter /backuptank01/.. ein paar Config-Dateien (vermutlich zu dem VM's vom Node) sowie einen .chunk Ordner, der mit über 64.000 Dateien gefüllt ist.
Ich habe die Befürchtung, dass es der falsche Weg sein wird, einfach plump "/backuptank01/*" auf das HiDrive laden zulassen.
Mir ist bekannt, dass es auch die Möglichkeit gibt, dass ich per CLI HiDrive CIFS hinzufüge, dies möchte ich aber nicht machen?
Ist es nicht mal ein Feature Request wert, dass ich auch einfach ein Remote-Storage like (FTP, CIFS, SFTP, etc...) per GUI hinzufügen lassen kann und auf dieses dann in einem Zyklus dann vom Backup Server aufs externe Storage replizieren lasse (3-2-1 Backup Prinzip)?
Besten Dank und viele Grüße
ich habe ein kleines Vorhaben, finde aber irgendwie nicht die richtigen Source-Daten dafür.
Vorhaben: Ich haben einen Promox Node sowie einen Proxmox Backup Server laufen. Die Backups landen daily im Snapsho-Verfahren auf dem Promox Backup Server. Soweit so gut und es läuft auch alles. Nun möchte ich die Backup-Daten aber nochmal extern auslagen in Form davon, dass ich die Backup-Daten auf ein HiDrive hochladen möchte. Promox Node = ZFS Local Storage Pool, Proxmox Backup Server = ZFS Local Storage Pool
Das Script ist auch soweit geschrieben und funktionieren tut es auch (mit anderen Pfaden getestet).
Bash:
#!/bin/bash
SOURCE=/backuptank01/
DEST=/users/harddisk/PBS/
LOG=/var/log/weekly-backup-upload.log
HOST=rsync.hidrive.strato.com
USER=harddisk-XXXX
NOW=$(date +"%m-%d-%Y")
RECEIPIENT=foo@bar.com
rm -rf $LOG
rsync -rltDavh -e ssh $SOURCE $USER@$HOST:$DEST --log-file=$LOG --delete --timeout=600
cat $LOG | mailx -s "$NOW Backup Upload Log" $RECEIPIENT
Nun stellt sich mir aber die Frage, welche wirkliche Backup-Daten muss ich hochladen? Auf dem Backup Server (ZFS backuptank01) Storage finde ich lediglich unter /backuptank01/.. ein paar Config-Dateien (vermutlich zu dem VM's vom Node) sowie einen .chunk Ordner, der mit über 64.000 Dateien gefüllt ist.
Ich habe die Befürchtung, dass es der falsche Weg sein wird, einfach plump "/backuptank01/*" auf das HiDrive laden zulassen.
Mir ist bekannt, dass es auch die Möglichkeit gibt, dass ich per CLI HiDrive CIFS hinzufüge, dies möchte ich aber nicht machen?
Ist es nicht mal ein Feature Request wert, dass ich auch einfach ein Remote-Storage like (FTP, CIFS, SFTP, etc...) per GUI hinzufügen lassen kann und auf dieses dann in einem Zyklus dann vom Backup Server aufs externe Storage replizieren lasse (3-2-1 Backup Prinzip)?
Besten Dank und viele Grüße