Eingeschränkter Backup Upload Speed

PePre

New Member
Jan 22, 2026
5
0
1
Hallo zusammen,

ich bin gerade dabei meinen lokalen Backup Server auf einen zweiten, externen (bei Hetzner gehosteten) Backup Server zu synchen.

Dies funktioniert soweit auch - jedoch leider nur äußerst langsam mit nur ca. 2 bis 3 MB/s.

Zum Setup:
Lokal:
"PVE01" mit "PBS01" lokal am Host als VM virtualisiert.
Datastore liegt ebenfalls lokal am Host.
ISP-Bandbreite: 100Mbit/s Down & 100Mbit/s up

Hetzner:
"PBS03" als Cloud-Server gehosted mit einem S3 Object Storage als Datastore.

Folgende Benchmarks habe ich bereits ausgeführt:

Benchmark direkt am "Cloud" Backup Server:

Code:
root@pbs03:~# proxmox-backup-client benchmark --repository PBS03-s3-datastore
Uploaded 247 chunks in 5 seconds.
Time per request: 20786 microseconds.
TLS speed: 201.78 MB/s   
SHA256 speed: 330.93 MB/s   
Compression speed: 256.66 MB/s   
Decompress speed: 383.03 MB/s   
AES256/GCM speed: 2199.89 MB/s   
Verify speed: 162.02 MB/s   
┌───────────────────────────────────┬────────────────────┐
│ Name                              │ Value              │
╞═══════════════════════════════════╪════════════════════╡
│ TLS (maximal backup upload speed) │ 201.78 MB/s (16%)  │
├───────────────────────────────────┼────────────────────┤
│ SHA256 checksum computation speed │ 330.93 MB/s (16%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 compression speed    │ 256.66 MB/s (34%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 decompression speed  │ 383.03 MB/s (32%)  │
├───────────────────────────────────┼────────────────────┤
│ Chunk verification speed          │ 162.02 MB/s (21%)  │
├───────────────────────────────────┼────────────────────┤
│ AES256 GCM encryption speed       │ 2199.89 MB/s (60%) │
└───────────────────────────────────┴────────────────────┘

Benchmark vom lokalen PVE host zum Cloud Server:

Code:
root@pve01:~# proxmox-backup-client benchmark --repository <IP>:8007:PBS03-s3-datastore
Password for "root@pam": ********************
Uploaded 104 chunks in 177 seconds.
Time per request: 1702951 microseconds.
TLS speed: 2.46 MB/s   
SHA256 speed: 458.28 MB/s   
Compression speed: 449.95 MB/s   
Decompress speed: 698.43 MB/s   
AES256/GCM speed: 2425.54 MB/s   
Verify speed: 277.14 MB/s   
┌───────────────────────────────────┬────────────────────┐
│ Name                              │ Value              │
╞═══════════════════════════════════╪════════════════════╡
│ TLS (maximal backup upload speed) │ 2.46 MB/s (0%)     │
├───────────────────────────────────┼────────────────────┤
│ SHA256 checksum computation speed │ 458.28 MB/s (23%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 compression speed    │ 449.95 MB/s (60%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 decompression speed  │ 698.43 MB/s (58%)  │
├───────────────────────────────────┼────────────────────┤
│ Chunk verification speed          │ 277.14 MB/s (37%)  │
├───────────────────────────────────┼────────────────────┤
│ AES256 GCM encryption speed       │ 2425.54 MB/s (67%) │
└───────────────────────────────────┴────────────────────┘

Hier sieht man, dass der Upload Speed bei nur 2.46 MB/s liegt?!


Hier auch noch ein iperf3 Speedtest zu Hetzner:

Code:
root@pve01:~# iperf3 -c <IP>
Connecting to host <IP>, port 5201
[  5] local 10.1.4.20 port 55262 connected to <IP> port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  12.2 MBytes   102 Mbits/sec    5    229 KBytes       
[  5]   1.00-2.00   sec  11.1 MBytes  92.8 Mbits/sec    0    264 KBytes       
[  5]   2.00-3.00   sec  11.2 MBytes  93.8 Mbits/sec    0    296 KBytes       
[  5]   3.00-4.00   sec  11.1 MBytes  93.3 Mbits/sec    4    246 KBytes       
[  5]   4.00-5.00   sec  11.9 MBytes   100 Mbits/sec    0    274 KBytes       
[  5]   5.00-6.00   sec  10.3 MBytes  86.5 Mbits/sec    5    211 KBytes       
[  5]   6.00-7.00   sec  11.3 MBytes  94.9 Mbits/sec    0    253 KBytes       
[  5]   7.00-8.00   sec  11.3 MBytes  94.9 Mbits/sec    0    279 KBytes       
[  5]   8.00-9.00   sec  11.3 MBytes  94.9 Mbits/sec    4    221 KBytes       
[  5]   9.00-10.00  sec  11.2 MBytes  94.3 Mbits/sec    0    259 KBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec   113 MBytes  94.8 Mbits/sec   18             sender
[  5]   0.00-10.02  sec   111 MBytes  92.9 Mbits/sec                  receiver

iperf Done.


Hat jemand eine Idee wo hier der Flaschenhals liegen könnte?
Gibt es noch andere Möglichkeiten um diesen geringen Upload-Speed besser nachvollziehen/einschränken zu können?


Vielen Dank für eure Unterstützung!
 
Hat jemand eine Idee wo hier der Flaschenhals liegen könnte?
PBS braucht IOPS. Die Bandbreite ist fast egal, weil die Latenz alles kaputt macht.

"Time per request: 1702951 microseconds." + "Uploaded 104 chunks in 177 seconds.". Also nullkommasechs IOPS...

Disclaimer: ich habe das noch nie so aufgebaut.
 
PBS braucht IOPS. Die Bandbreite ist fast egal, weil die Latenz alles kaputt macht.

"Time per request: 1702951 microseconds." + "Uploaded 104 chunks in 177 seconds.". Also nullkommasechs IOPS...

Disclaimer: ich habe das noch nie so aufgebaut.

Danke @UdoB für deine rasche Antwort!

Laut Firewall bzw. iperf haben wir eine durchschnittliche Latenz von 2 bis 4ms... Kann das zu viel sein?

Welchen Aufbau würdest du empfehlen?
 
Udo hat von IOPS gesprochen, nicht von eurer Netzwerklatenz. Ich synce ebenfalls encrypted zu Hetzner-PBS + Storagebox, keine Probleme.
Kurzum: Euer lokales Storage wird wohl "Arsch"langsam sein ;D
 
Last edited:
Wenn ich mich richtig erinnere, hat mal ein Entwickler hier auf Nachfrage folgendes zum Thema rausgehen ( Reihenfolge größtes zu kleinstes IOPS):
- Lokale SSDs, lokale HDDs, NFS-Netzspeicher, S3

Das setzt aber voraus, dass NFS und S3 auf der selben Art Storage-Hardware laufen. Die Storageboxen sind mit ZFS zusammengeschaltete HDDs, ist bekannt, was für Storagemedien das S3-Backend von Hetzner bilden?
 
Last edited:
Vielen Dank für eure Rückmeldungen!

Um die Speicher-Geschwindigkeiten ausschließen zu können hab ich mal folgende Benchmarks ausgeführt:

Am remote Backup Server direkt mit einem Datastore auf der SSD vom Server:

Geschwindigkeiten vom Speicher: (getestet mit fio)
Read: IOPS=59.3k, BW=232MiB/s (243MB/s)(13.6GiB/60004msec)
Write: IOPS=50.3k, BW=197MiB/s (206MB/s)(11.5GiB/60002msec);

Code:
root@pbs03:~# proxmox-backup-client benchmark --repository local-speedtest
Password for "root@pam": ******
Uploaded 169 chunks in 5 seconds.
Time per request: 29687 microseconds.
TLS speed: 141.28 MB/s   
SHA256 speed: 305.01 MB/s   
Compression speed: 256.50 MB/s   
Decompress speed: 337.75 MB/s   
AES256/GCM speed: 1991.02 MB/s   
Verify speed: 148.77 MB/s   
┌───────────────────────────────────┬────────────────────┐
│ Name                              │ Value              │
╞═══════════════════════════════════╪════════════════════╡
│ TLS (maximal backup upload speed) │ 141.28 MB/s (11%)  │
├───────────────────────────────────┼────────────────────┤
│ SHA256 checksum computation speed │ 305.01 MB/s (15%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 compression speed    │ 256.50 MB/s (34%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 decompression speed  │ 337.75 MB/s (28%)  │
├───────────────────────────────────┼────────────────────┤
│ Chunk verification speed          │ 148.77 MB/s (20%)  │
├───────────────────────────────────┼────────────────────┤
│ AES256 GCM encryption speed       │ 1991.02 MB/s (55%) │
└───────────────────────────────────┴────────────────────┘

Am lokalem PVE Host (Nicht am lokalem Backup Server): (läuft auch auf einer SSD)

Geschwindigkeiten vom Speicher: (getestet mit fio)
Read: IOPS=51.8k, BW=202MiB/s (212MB/s)(11.9GiB/60001msec)
Write: IOPS=823, BW=3293KiB/s (3372kB/s)(194MiB/60184msec);

Der Speicher schaut nach den obigen Ergebnissen (zumindest für mich) so aus, als dürfte dieser nicht der Flaschenhals sein.

Der Benchmark zum remote Server ist trotzdem sehr langsam mit nur 11.2 MB/s max. Upload Speed:

Code:
root@pve01:~# proxmox-backup-client benchmark --repository <IP>:8007:local-speedtest
Password for "root@pam": ***
Uploaded 104 chunks in 38 seconds.
Time per request: 374373 microseconds.
TLS speed: 11.20 MB/s   
SHA256 speed: 459.54 MB/s   
Compression speed: 455.36 MB/s   
Decompress speed: 708.25 MB/s   
AES256/GCM speed: 2387.46 MB/s   
Verify speed: 268.57 MB/s   
┌───────────────────────────────────┬────────────────────┐
│ Name                              │ Value              │
╞═══════════════════════════════════╪════════════════════╡
│ TLS (maximal backup upload speed) │ 11.20 MB/s (1%)    │
├───────────────────────────────────┼────────────────────┤
│ SHA256 checksum computation speed │ 459.54 MB/s (23%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 compression speed    │ 455.36 MB/s (61%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 decompression speed  │ 708.25 MB/s (59%)  │
├───────────────────────────────────┼────────────────────┤
│ Chunk verification speed          │ 268.57 MB/s (35%)  │
├───────────────────────────────────┼────────────────────┤
│ AES256 GCM encryption speed       │ 2387.46 MB/s (65%) │
└───────────────────────────────────┴────────────────────┘

Hat da jemand noch Ideen dazu?

@Johannes S
Zum Aufbau vom Storagesystem vom Hetzner S3 hab ich leider Informationen.
 
Um die Speichergeschwindigkeiten endgültig als Flaschenhals ausschließen zu können habe ich nun eine weitere VM auf meinem PVE aufgesetzt und mit dieser einen 2. lokalen Backup Server installiert:

Als Test habe ich danach einen Pull-Sync zwischen den beiden lokalen PBS mit nur 1 Backup Gruppe durchgeführt - dieser wurde dann auch sofort innerhalb von 10 Sekunden erfolgreich abgeschlossen. (Die beiden beteiligten Datastores befinden sich auf 2 getrennten Laufwerken)

Anschließend habe ich den gleichen Pull-Sync auf den remote Backup Server bei Hetzner durchgeführt und folgendes Ergebnis erhalten:
(Der Datastore am Hetzner Remote befindet sich auf der SSD des Servers)
  • Dauer: 7 Minuten
  • Transfer rate (bytes/second): 2M (laut PBS GUI)
  • IOPS: zwischen 1 und 2 (laut PBS GUI)
Soweit ich diese Zahlen jetzt deuten kann muss es wohl irgendwas mit der Netzwerkverbindung zu Hetzner zu tun haben. IOPS können da wohl kaum mehr das Problem sein @UdoB ?

Noch eine Anmerkung zum Schluss: das kopiere Backup hat nur 1.63GB...

Schön langsam gehen mir die Ideen aus? :confused:
 
Ist schwierig hier weiter zu debuggen. Live-Werte währen notwendig, während des Backups, Transferspeeds zwischen den Zielen und noch mehr.
Probier doch mal einen PBS bei Hetzner ohne S3.
 
Ist schwierig hier weiter zu debuggen. Live-Werte währen notwendig, während des Backups, Transferspeeds zwischen den Zielen und noch mehr.
Probier doch mal einen PBS bei Hetzner ohne S3.

Der Datastore bei Hetzner ist bereits ohne S3 und speichert nur lokal auf der SSD des Servers.

Welche Werte wären hier sinnvoll?

Die iperf3-Speedtest sind unverändert wie oben im initialen Post.

Die CPU's kümmert es nicht, dass ein Backup gemacht wird. Weder VM, Host, Firewall etc.

Hier noch die Benchmarks mit dem lokalem Datastore bei Hetzner:

Am remote PBS:
Code:
root@pbs02:~# proxmox-backup-client benchmark --repository local-speedtest
Password for "root@pam": ***
Uploaded 457 chunks in 5 seconds.
Time per request: 11020 microseconds.
TLS speed: 380.61 MB/s  
SHA256 speed: 316.41 MB/s  
Compression speed: 226.69 MB/s  
Decompress speed: 337.91 MB/s  
AES256/GCM speed: 1975.13 MB/s  
Verify speed: 160.16 MB/s  
┌───────────────────────────────────┬────────────────────┐
│ Name                              │ Value              │
╞═══════════════════════════════════╪════════════════════╡
│ TLS (maximal backup upload speed) │ 380.61 MB/s (31%)  │
├───────────────────────────────────┼────────────────────┤
│ SHA256 checksum computation speed │ 316.41 MB/s (16%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 compression speed    │ 226.69 MB/s (30%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 decompression speed  │ 337.91 MB/s (28%)  │
├───────────────────────────────────┼────────────────────┤
│ Chunk verification speed          │ 160.16 MB/s (21%)  │
├───────────────────────────────────┼────────────────────┤
│ AES256 GCM encryption speed       │ 1975.13 MB/s (54%) │
└───────────────────────────────────┴────────────────────┘

Am lokalen PBS:
Code:
root@pbs10:~# proxmox-backup-client benchmark --repository local-zfs-01
Password for "root@pam": ***
Uploaded 736 chunks in 5 seconds.
Time per request: 6860 microseconds.
TLS speed: 611.38 MB/s  
SHA256 speed: 454.36 MB/s  
Compression speed: 405.63 MB/s  
Decompress speed: 667.74 MB/s  
AES256/GCM speed: 2351.62 MB/s  
Verify speed: 263.62 MB/s  
┌───────────────────────────────────┬────────────────────┐
│ Name                              │ Value              │
╞═══════════════════════════════════╪════════════════════╡
│ TLS (maximal backup upload speed) │ 611.38 MB/s (50%)  │
├───────────────────────────────────┼────────────────────┤
│ SHA256 checksum computation speed │ 454.36 MB/s (22%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 compression speed    │ 405.63 MB/s (54%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 decompression speed  │ 667.74 MB/s (56%)  │
├───────────────────────────────────┼────────────────────┤
│ Chunk verification speed          │ 263.62 MB/s (35%)  │
├───────────────────────────────────┼────────────────────┤
│ AES256 GCM encryption speed       │ 2351.62 MB/s (65%) │
└───────────────────────────────────┴────────────────────┘


Vom lokalen PBS zum remote:
(hier sieht man wieder den langsamen TLS upload speed)
Code:
root@pbs10:~# proxmox-backup-client benchmark --repository <IP>:8007:local-speedtest
Password for "root@pam": ***
Uploaded 104 chunks in 254 seconds.
Time per request: 2447751 microseconds.
TLS speed: 1.71 MB/s  
SHA256 speed: 456.56 MB/s  
Compression speed: 402.09 MB/s  
Decompress speed: 646.57 MB/s  
AES256/GCM speed: 2423.03 MB/s  
Verify speed: 266.46 MB/s  
┌───────────────────────────────────┬────────────────────┐
│ Name                              │ Value              │
╞═══════════════════════════════════╪════════════════════╡
│ TLS (maximal backup upload speed) │ 1.71 MB/s (0%)     │
├───────────────────────────────────┼────────────────────┤
│ SHA256 checksum computation speed │ 456.56 MB/s (23%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 compression speed    │ 402.09 MB/s (53%)  │
├───────────────────────────────────┼────────────────────┤
│ ZStd level 1 decompression speed  │ 646.57 MB/s (54%)  │
├───────────────────────────────────┼────────────────────┤
│ Chunk verification speed          │ 266.46 MB/s (35%)  │
├───────────────────────────────────┼────────────────────┤
│ AES256 GCM encryption speed       │ 2423.03 MB/s (66%) │
└───────────────────────────────────┴────────────────────┘

Evtl. hilft auch noch der Log vom Sync-Pull:
Code:
ProxmoxBackup Server 4.1.1
()
2026-01-26T19:45:23+01:00: Starting datastore sync job 'pbs10.pepre.at:local-zfs-01:local-speedtest::s-f730b465-ba87'
2026-01-26T19:45:23+01:00: sync datastore 'local-speedtest' from 'pbs10.pepre.at/local-zfs-01'
2026-01-26T19:45:23+01:00: ----
2026-01-26T19:45:23+01:00: Syncing datastore 'local-zfs-01', root namespace into datastore 'local-speedtest', root namespace
2026-01-26T19:45:23+01:00: found 0 groups to sync (out of 0 total)
2026-01-26T19:45:23+01:00: Finished syncing root namespace, current progress: 0 groups, 0 snapshots
2026-01-26T19:45:23+01:00: ----
2026-01-26T19:45:23+01:00: Syncing datastore 'local-zfs-01', namespace 'pve01.pepre.at' into datastore 'local-speedtest', namespace 'pve01.pepre.at'
2026-01-26T19:45:23+01:00: Created namespace pve01.pepre.at
2026-01-26T19:45:23+01:00: found 1 groups to sync (out of 1 total)
2026-01-26T19:45:23+01:00: sync snapshot ct/101/2026-01-18T02:02:26Z
2026-01-26T19:45:23+01:00: sync archive pct.conf.blob
2026-01-26T19:45:23+01:00: sync archive root.pxar.didx
2026-01-26T19:51:01+01:00: downloaded 540.811 MiB (1.601 MiB/s)
2026-01-26T19:51:01+01:00: sync archive catalog.pcat1.didx
2026-01-26T19:51:01+01:00: downloaded 461.418 KiB (1.206 MiB/s)
2026-01-26T19:51:01+01:00: got backup log file client.log.blob
2026-01-26T19:51:01+01:00: sync snapshot ct/101/2026-01-18T02:02:26Z done
2026-01-26T19:51:01+01:00: percentage done: 10.00% (1/10 snapshots)
2026-01-26T19:51:01+01:00: sync snapshot ct/101/2026-01-18T22:21:00Z
2026-01-26T19:51:01+01:00: sync archive pct.conf.blob
2026-01-26T19:51:01+01:00: sync archive root.pxar.didx
2026-01-26T19:51:01+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:01+01:00: sync archive catalog.pcat1.didx
2026-01-26T19:51:02+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:02+01:00: got backup log file client.log.blob
2026-01-26T19:51:02+01:00: sync snapshot ct/101/2026-01-18T22:21:00Z done
2026-01-26T19:51:02+01:00: percentage done: 20.00% (2/10 snapshots)
2026-01-26T19:51:02+01:00: sync snapshot ct/101/2026-01-19T03:05:02Z
2026-01-26T19:51:02+01:00: sync archive pct.conf.blob
2026-01-26T19:51:02+01:00: sync archive root.pxar.didx
2026-01-26T19:51:02+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:02+01:00: sync archive catalog.pcat1.didx
2026-01-26T19:51:02+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:02+01:00: got backup log file client.log.blob
2026-01-26T19:51:02+01:00: sync snapshot ct/101/2026-01-19T03:05:02Z done
2026-01-26T19:51:02+01:00: percentage done: 30.00% (3/10 snapshots)
2026-01-26T19:51:02+01:00: sync snapshot ct/101/2026-01-20T02:01:37Z
2026-01-26T19:51:02+01:00: sync archive pct.conf.blob
2026-01-26T19:51:02+01:00: sync archive root.pxar.didx
2026-01-26T19:51:02+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:02+01:00: sync archive catalog.pcat1.didx
2026-01-26T19:51:02+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:02+01:00: got backup log file client.log.blob
2026-01-26T19:51:02+01:00: sync snapshot ct/101/2026-01-20T02:01:37Z done
2026-01-26T19:51:02+01:00: percentage done: 40.00% (4/10 snapshots)
2026-01-26T19:51:02+01:00: sync snapshot ct/101/2026-01-21T02:01:37Z
2026-01-26T19:51:02+01:00: sync archive pct.conf.blob
2026-01-26T19:51:02+01:00: sync archive root.pxar.didx
2026-01-26T19:51:02+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:02+01:00: sync archive catalog.pcat1.didx
2026-01-26T19:51:02+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:02+01:00: got backup log file client.log.blob
2026-01-26T19:51:02+01:00: sync snapshot ct/101/2026-01-21T02:01:37Z done
2026-01-26T19:51:02+01:00: percentage done: 50.00% (5/10 snapshots)
2026-01-26T19:51:02+01:00: sync snapshot ct/101/2026-01-22T02:01:34Z
2026-01-26T19:51:02+01:00: sync archive pct.conf.blob
2026-01-26T19:51:02+01:00: sync archive root.pxar.didx
2026-01-26T19:51:02+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:02+01:00: sync archive catalog.pcat1.didx
2026-01-26T19:51:02+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:02+01:00: got backup log file client.log.blob
2026-01-26T19:51:02+01:00: sync snapshot ct/101/2026-01-22T02:01:34Z done
2026-01-26T19:51:02+01:00: percentage done: 60.00% (6/10 snapshots)
2026-01-26T19:51:02+01:00: sync snapshot ct/101/2026-01-23T02:01:32Z
2026-01-26T19:51:02+01:00: sync archive pct.conf.blob
2026-01-26T19:51:02+01:00: sync archive root.pxar.didx
2026-01-26T19:51:03+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:03+01:00: sync archive catalog.pcat1.didx
2026-01-26T19:51:03+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:03+01:00: got backup log file client.log.blob
2026-01-26T19:51:03+01:00: sync snapshot ct/101/2026-01-23T02:01:32Z done
2026-01-26T19:51:03+01:00: percentage done: 70.00% (7/10 snapshots)
2026-01-26T19:51:03+01:00: sync snapshot ct/101/2026-01-24T02:01:34Z
2026-01-26T19:51:03+01:00: sync archive pct.conf.blob
2026-01-26T19:51:03+01:00: sync archive root.pxar.didx
2026-01-26T19:51:03+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:03+01:00: sync archive catalog.pcat1.didx
2026-01-26T19:51:03+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:03+01:00: got backup log file client.log.blob
2026-01-26T19:51:03+01:00: sync snapshot ct/101/2026-01-24T02:01:34Z done
2026-01-26T19:51:03+01:00: percentage done: 80.00% (8/10 snapshots)
2026-01-26T19:51:03+01:00: sync snapshot ct/101/2026-01-25T02:01:35Z
2026-01-26T19:51:03+01:00: sync archive pct.conf.blob
2026-01-26T19:51:03+01:00: sync archive root.pxar.didx
2026-01-26T19:51:03+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:03+01:00: sync archive catalog.pcat1.didx
2026-01-26T19:51:03+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:03+01:00: got backup log file client.log.blob
2026-01-26T19:51:03+01:00: sync snapshot ct/101/2026-01-25T02:01:35Z done
2026-01-26T19:51:03+01:00: percentage done: 90.00% (9/10 snapshots)
2026-01-26T19:51:03+01:00: sync snapshot ct/101/2026-01-26T02:01:32Z
2026-01-26T19:51:03+01:00: sync archive pct.conf.blob
2026-01-26T19:51:03+01:00: sync archive root.pxar.didx
2026-01-26T19:51:03+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:03+01:00: sync archive catalog.pcat1.didx
2026-01-26T19:51:03+01:00: downloaded 0 B (0 B/s)
2026-01-26T19:51:03+01:00: got backup log file client.log.blob
2026-01-26T19:51:03+01:00: sync snapshot ct/101/2026-01-26T02:01:32Z done
2026-01-26T19:51:03+01:00: percentage done: 100.00% (10/10 snapshots)
2026-01-26T19:51:03+01:00: Finished syncing namespace pve01.pepre.at, current progress: 0 groups, 10 snapshots
2026-01-26T19:51:03+01:00: Summary: sync job pulled 541.262 MiB in 463 chunks (average rate: 1.601 MiB/s)
2026-01-26T19:51:03+01:00: sync job 'pbs10.pepre.at:local-zfs-01:local-speedtest::s-f730b465-ba87' end
2026-01-26T19:51:03+01:00: queued notification (id=d8c9c652-b035-4add-a0f8-7406a6a5691b)
2026-01-26T19:51:03+01:00: TASK OK


Vielen Dank für euere Mithilfe!
 
Last edited:
IOPS können da wohl kaum mehr das Problem sein @UdoB ?
Sorry, keine Ahnung.
Aber wenn der Storage nur zweimal pro Sekunde mit dem PBS redet, wird das nichts Vernünftiges.