Also hast du erst einmal gesichert, oder?Deduplizierungsfaktor ist 1.
Hab leider keine Ahnung von ZFS (außer dass man es auf Consumer Geräten nicht nutzen soll), aber ZFS hat ja auch eine eigene Deduplizierung. Vielleicht kommt die "1" auch daher?
Also hast du erst einmal gesichert, oder?Deduplizierungsfaktor ist 1.
Die ist aber standardmäßig deaktiviert und wird auch von kaum wem benutzt, weil ein aktivieren zusätzliche 5GB RAM je 1TB Storage erfordern würde.Hab leider keine Ahnung von ZFS (außer dass man es auf Consumer Geräten nicht nutzen soll), aber ZFS hat ja auch eine eigene Deduplizierung. Vielleicht kommt die "1" auch daher?
Dann sollte da auch inkrementell gesichert werden, Zeigt uns doch mal in PBS die letzten Zeilen deines letzten GC-Logs. Hier sieht das z.B. so aus:Moin,
ok macht ja Sinn. Jetzt bin ich jedoch hingegangen und nutze PBS was ja inkrementelle Backups unterstützt UND wo ich die Verifizierungsmöglichkeit habe. Wenn ich nun 1 Backup durchlaufen lasse, dieses Erfolgreich abgeschlossen UND erfolgreich Verifiziert wurde..warum kann dann nicht auf diesem Backup nun inkrementell gesichert werden. Was machen denn Nutzer die 5tb an Daten haben, IMMER das gleiche als " unnützen" Speicher zu haben??
2023-07-06T13:37:42+02:00: processed 99% (91386 chunks)
2023-07-06T13:37:42+02:00: Removed garbage: 1.993 GiB
2023-07-06T13:37:42+02:00: Removed chunks: 2083
2023-07-06T13:37:42+02:00: Pending removals: 2 GiB (in 2058 chunks)
2023-07-06T13:37:42+02:00: Original data usage: 4.768 TiB
2023-07-06T13:37:42+02:00: On-Disk usage: 102.763 GiB (2.10%)
2023-07-06T13:37:42+02:00: On-Disk chunks: 88170
2023-07-06T13:37:42+02:00: Deduplication factor: 47.51
2023-07-06T13:37:42+02:00: Average chunk size: 1.193 MiB
2023-07-06T13:37:42+02:00: TASK OK
INFO: backup is sparse: 1.14 GiB (49%) total zero data
INFO: backup was done incrementally, reused 32.47 GiB (98%)
Ja das sieht bei dem backup auf meinem NAS auch so aus soweit ich weiß ( komme gerade nicht drauf ). Aber halt nicht bei eine SSD mit 1tb Platz, da sichere ich die LXC und VM ( haben grob 700gb ) und die Platte läuft über ( VM locked wegen Backup und die Platte ist mit 985gb VOLL ). Das würde ja dann auch die Aussagen hier bestätigen, ERSTMALIGES BACKUP benötigt somit den doppelten Speicherplatz, wenn dieses Backup dann erfolgreich war kann darauf dann inkrementell gesichert werden. Sehe ich das so richtig?Die ist aber standardmäßig deaktiviert und wird auch von kaum wem benutzt, weil ein aktivieren zusätzliche 5GB RAM je 1TB Storage erfordern würde.
Dann sollte da auch inkrementell gesichert werden, Zeigt uns doch mal in PBS die letzten Zeilen deines letzten GC-Logs. Hier sieht das z.B. so aus:
Also 4,76 TiBs an Backups die wegen Deduplikaton ber nur 102 GiB Pltz wegnehmen.Code:2023-07-06T13:37:42+02:00: processed 99% (91386 chunks) 2023-07-06T13:37:42+02:00: Removed garbage: 1.993 GiB 2023-07-06T13:37:42+02:00: Removed chunks: 2083 2023-07-06T13:37:42+02:00: Pending removals: 2 GiB (in 2058 chunks) 2023-07-06T13:37:42+02:00: Original data usage: 4.768 TiB 2023-07-06T13:37:42+02:00: On-Disk usage: 102.763 GiB (2.10%) 2023-07-06T13:37:42+02:00: On-Disk chunks: 88170 2023-07-06T13:37:42+02:00: Deduplication factor: 47.51 2023-07-06T13:37:42+02:00: Average chunk size: 1.193 MiB 2023-07-06T13:37:42+02:00: TASK OK
In PVE im Log des Backup Jobs solltest du auch Infos finden, wieviele der Daten inkrementell gesendet wurden:
Also hier wurden z.B. nur 2% wirklich zum PBS gesendet weil 98% schon existierten.Code:INFO: backup is sparse: 1.14 GiB (49%) total zero data INFO: backup was done incrementally, reused 32.47 GiB (98%)
Nein warum? Beim ersten mal muss ja auf kein vorhandenes Backup geachtet werden. Und das ist auch nur bei vzdump's so.ERSTMALIGES BACKUP benötigt somit den doppelten Speicherplatz
Hi,Versuch mal ein anderes Dateisystem auf deine SSD zu machen (xfs oder ext4) und teste naochmal.
Ja, leider. Musst du mit Hook Scripts als Workaround arbeiten:Ist das normal??
Schlechte Idee, es wird nicht nur langsam, sondern der ganze Hypervisor kann einfrieren, wenn etwas mehr Storagetraffic kommt.Ach du heiliges Kanonenrohr...ne..dann reagiert es halt für eine Zeit langsam
Google kennt garantiert Vorlagen und bitte erst nach dem hochfahren das mounten versuchen. Wird sonst schwierig.Hi,
danke für deine Info. Ist aber alles wirklich so hinten durch dem Auge oder? Also vor dem runterfahren des NAS einen umount Befehl und dann vor dem Hochfahren wieder einen mountbefehl?
Gibt es da Vorlagen?
We use essential cookies to make this site work, and optional cookies to enhance your experience.