leider wiedermal PBS Performance

Wieder der gleiche Fehler. VM steht!
Jetzt glaube ich an einen Systemfehler. Wieder 2012R2 Server. Wieso hat den keiner?
VMID NAME STATUS TIME SIZE FILENAME
161 1 OK 00:11:35 120.00GB vm/161/2021-01-29T18:28:50Z
162 2 FAILED 00:01:20 VM 162 qmp command 'backup' failed - got timeout
TOTAL 00:12:55 120.00GB


Detailed backup logs:

vzdump 162 161 163 164 --mode snapshot --mailnotification always --quiet 1 --all 0 --node pve02 --storage pbs02


161: 2021-01-29 19:28:50 INFO: Starting Backup of VM 161 (qemu)
161: 2021-01-29 19:28:50 INFO: status = running
161: 2021-01-29 19:28:50 INFO: VM Name: 1
161: 2021-01-29 19:28:50 INFO: include disk 'scsi0' 'nasomv7-ZFS:vm-161-disk-2' 120G
161: 2021-01-29 19:28:50 INFO: include disk 'efidisk0' 'nasomv7-ZFS:vm-161-disk-1' 128K
161: 2021-01-29 19:28:50 INFO: backup mode: snapshot
161: 2021-01-29 19:28:50 INFO: ionice priority: 7
161: 2021-01-29 19:28:50 INFO: skip unused drive 'nasomv4-RAW-pve-storages:161/vm-161-disk-0.qcow2' (not included into backup)
161: 2021-01-29 19:28:50 INFO: skip unused drive 'nasomv7-ZFS:vm-161-disk-0' (not included into backup)
161: 2021-01-29 19:28:50 INFO: snapshots found (not included into backup)
161: 2021-01-29 19:28:50 INFO: creating Proxmox Backup Server archive 'vm/161/2021-01-29T18:28:50Z'
161: 2021-01-29 19:28:50 INFO: issuing guest-agent 'fs-freeze' command
161: 2021-01-29 19:29:29 INFO: issuing guest-agent 'fs-thaw' command
161: 2021-01-29 19:29:36 INFO: started backup task '9cc34b83-33ef-4952-9a98-ab604a760474'
161: 2021-01-29 19:29:36 INFO: resuming VM again
161: 2021-01-29 19:29:36 INFO: efidisk0: dirty-bitmap status: OK (128.0 KiB of 128.0 KiB dirty)
161: 2021-01-29 19:29:36 INFO: scsi0: dirty-bitmap status: OK (15.6 GiB of 120.0 GiB dirty)
161: 2021-01-29 19:29:36 INFO: using fast incremental mode (dirty-bitmap), 15.6 GiB dirty of 120.0 GiB total
161: 2021-01-29 19:29:39 INFO: 1% (304.0 MiB of 15.6 GiB) in 3s, read: 101.3 MiB/s, write: 93.3 MiB/s
161: 2021-01-29 19:29:42 INFO: 2% (376.0 MiB of 15.6 GiB) in 6s, read: 24.0 MiB/s, write: 24.0 MiB/s
161: 2021-01-29 19:29:59 INFO: 3% (488.0 MiB of 15.6 GiB) in 23s, read: 6.6 MiB/s, write: 6.1 MiB/s
161: 2021-01-29 19:30:07 INFO: 4% (640.0 MiB of 15.6 GiB) in 31s, read: 19.0 MiB/s, write: 18.5 MiB/s
161: 2021-01-29 19:30:18 INFO: 5% (800.0 MiB of 15.6 GiB) in 42s, read: 14.5 MiB/s, write: 12.7 MiB/s
161: 2021-01-29 19:30:36 INFO: 6% (960.0 MiB of 15.6 GiB) in 1m 0s, read: 8.9 MiB/s, write: 8.7 MiB/s
161: 2021-01-29 19:30:44 INFO: 7% (1.1 GiB of 15.6 GiB) in 1m 8s, read: 23.5 MiB/s, write: 21.0 MiB/s
161: 2021-01-29 19:31:02 INFO: 8% (1.2 GiB of 15.6 GiB) in 1m 26s, read: 7.3 MiB/s, write: 7.1 MiB/s
161: 2021-01-29 19:31:11 INFO: 9% (1.4 GiB of 15.6 GiB) in 1m 35s, read: 18.2 MiB/s, write: 17.8 MiB/s
161: 2021-01-29 19:31:18 INFO: 10% (1.6 GiB of 15.6 GiB) in 1m 42s, read: 24.0 MiB/s, write: 21.7 MiB/s
161: 2021-01-29 19:31:38 INFO: 11% (1.7 GiB of 15.6 GiB) in 2m 2s, read: 8.0 MiB/s, write: 7.2 MiB/s
161: 2021-01-29 19:31:45 INFO: 12% (1.9 GiB of 15.6 GiB) in 2m 9s, read: 20.6 MiB/s, write: 18.3 MiB/s
161: 2021-01-29 19:31:58 INFO: 13% (2.1 GiB of 15.6 GiB) in 2m 22s, read: 14.2 MiB/s, write: 11.1 MiB/s
161: 2021-01-29 19:32:08 INFO: 14% (2.2 GiB of 15.6 GiB) in 2m 32s, read: 14.8 MiB/s, write: 11.2 MiB/s
161: 2021-01-29 19:32:15 INFO: 15% (2.3 GiB of 15.6 GiB) in 2m 39s, read: 21.7 MiB/s, write: 16.0 MiB/s
161: 2021-01-29 19:32:34 INFO: 16% (2.5 GiB of 15.6 GiB) in 2m 58s, read: 8.0 MiB/s, write: 6.1 MiB/s
161: 2021-01-29 19:32:46 INFO: 17% (2.7 GiB of 15.6 GiB) in 3m 10s, read: 13.7 MiB/s, write: 8.3 MiB/s
161: 2021-01-29 19:33:00 INFO: 18% (2.8 GiB of 15.6 GiB) in 3m 24s, read: 12.6 MiB/s, write: 11.7 MiB/s
161: 2021-01-29 19:33:08 INFO: 19% (3.0 GiB of 15.6 GiB) in 3m 32s, read: 18.0 MiB/s, write: 15.0 MiB/s
161: 2021-01-29 19:33:21 INFO: 20% (3.1 GiB of 15.6 GiB) in 3m 45s, read: 12.0 MiB/s, write: 8.9 MiB/s
161: 2021-01-29 19:33:35 INFO: 21% (3.3 GiB of 15.6 GiB) in 3m 59s, read: 11.4 MiB/s, write: 5.7 MiB/s
161: 2021-01-29 19:33:49 INFO: 22% (3.4 GiB of 15.6 GiB) in 4m 13s, read: 12.3 MiB/s, write: 9.1 MiB/s
161: 2021-01-29 19:33:57 INFO: 23% (3.6 GiB of 15.6 GiB) in 4m 21s, read: 19.0 MiB/s, write: 6.5 MiB/s
161: 2021-01-29 19:34:09 INFO: 24% (3.7 GiB of 15.6 GiB) in 4m 33s, read: 12.7 MiB/s, write: 10.0 MiB/s
161: 2021-01-29 19:34:21 INFO: 25% (3.9 GiB of 15.6 GiB) in 4m 45s, read: 14.7 MiB/s, write: 14.0 MiB/s
161: 2021-01-29 19:34:31 INFO: 26% (4.1 GiB of 15.6 GiB) in 4m 55s, read: 15.6 MiB/s, write: 10.4 MiB/s
161: 2021-01-29 19:34:43 INFO: 27% (4.2 GiB of 15.6 GiB) in 5m 7s, read: 12.7 MiB/s, write: 341.3 KiB/s
161: 2021-01-29 19:34:51 INFO: 28% (4.4 GiB of 15.6 GiB) in 5m 15s, read: 20.0 MiB/s, write: 10.0 MiB/s
161: 2021-01-29 19:35:03 INFO: 29% (4.5 GiB of 15.6 GiB) in 5m 27s, read: 14.0 MiB/s, write: 5.3 MiB/s
161: 2021-01-29 19:35:11 INFO: 30% (4.7 GiB of 15.6 GiB) in 5m 35s, read: 19.0 MiB/s, write: 0 B/s
161: 2021-01-29 19:35:26 INFO: 31% (4.9 GiB of 15.6 GiB) in 5m 50s, read: 11.7 MiB/s, write: 3.2 MiB/s
161: 2021-01-29 19:35:31 INFO: 32% (5.0 GiB of 15.6 GiB) in 5m 55s, read: 37.6 MiB/s, write: 11.2 MiB/s
161: 2021-01-29 19:35:42 INFO: 33% (5.1 GiB of 15.6 GiB) in 6m 6s, read: 10.5 MiB/s, write: 1.8 MiB/s
161: 2021-01-29 19:35:54 INFO: 34% (5.3 GiB of 15.6 GiB) in 6m 18s, read: 13.3 MiB/s, write: 9.3 MiB/s
161: 2021-01-29 19:36:03 INFO: 35% (5.5 GiB of 15.6 GiB) in 6m 27s, read: 18.7 MiB/s, write: 12.0 MiB/s
161: 2021-01-29 19:36:14 INFO: 36% (5.6 GiB of 15.6 GiB) in 6m 38s, read: 14.2 MiB/s, write: 6.2 MiB/s
161: 2021-01-29 19:36:25 INFO: 37% (5.8 GiB of 15.6 GiB) in 6m 49s, read: 14.2 MiB/s, write: 8.0 MiB/s
161: 2021-01-29 19:36:31 INFO: 38% (5.9 GiB of 15.6 GiB) in 6m 55s, read: 25.3 MiB/s, write: 17.3 MiB/s
161: 2021-01-29 19:36:44 INFO: 39% (6.1 GiB of 15.6 GiB) in 7m 8s, read: 13.2 MiB/s, write: 4.0 MiB/s
161: 2021-01-29 19:36:55 INFO: 40% (6.2 GiB of 15.6 GiB) in 7m 19s, read: 13.5 MiB/s, write: 9.1 MiB/s
161: 2021-01-29 19:37:00 INFO: 41% (6.4 GiB of 15.6 GiB) in 7m 24s, read: 32.8 MiB/s, write: 14.4 MiB/s
161: 2021-01-29 19:37:11 INFO: 42% (6.6 GiB of 15.6 GiB) in 7m 35s, read: 14.5 MiB/s, write: 11.6 MiB/s
161: 2021-01-29 19:37:27 INFO: 43% (6.7 GiB of 15.6 GiB) in 7m 51s, read: 11.2 MiB/s, write: 5.8 MiB/s
161: 2021-01-29 19:37:35 INFO: 44% (6.9 GiB of 15.6 GiB) in 7m 59s, read: 18.5 MiB/s, write: 15.5 MiB/s
161: 2021-01-29 19:37:49 INFO: 45% (7.0 GiB of 15.6 GiB) in 8m 13s, read: 11.1 MiB/s, write: 4.6 MiB/s
161: 2021-01-29 19:37:59 INFO: 46% (7.2 GiB of 15.6 GiB) in 8m 23s, read: 15.2 MiB/s, write: 6.0 MiB/s
161: 2021-01-29 19:38:08 INFO: 47% (7.3 GiB of 15.6 GiB) in 8m 32s, read: 17.8 MiB/s, write: 8.4 MiB/s
161: 2021-01-29 19:38:25 INFO: 48% (7.5 GiB of 15.6 GiB) in 8m 49s, read: 9.6 MiB/s, write: 3.3 MiB/s
161: 2021-01-29 19:38:31 INFO: 49% (7.6 GiB of 15.6 GiB) in 8m 55s, read: 26.0 MiB/s, write: 0 B/s
161: 2021-01-29 19:38:40 INFO: 50% (7.8 GiB of 15.6 GiB) in 9m 4s, read: 16.9 MiB/s, write: 0 B/s
161: 2021-01-29 19:38:43 INFO: 51% (8.0 GiB of 15.6 GiB) in 9m 7s, read: 70.7 MiB/s, write: 0 B/s
161: 2021-01-29 19:38:46 INFO: 53% (8.3 GiB of 15.6 GiB) in 9m 10s, read: 94.7 MiB/s, write: 0 B/s
161: 2021-01-29 19:38:49 INFO: 54% (8.5 GiB of 15.6 GiB) in 9m 13s, read: 90.7 MiB/s, write: 0 B/s
161: 2021-01-29 19:38:52 INFO: 56% (8.8 GiB of 15.6 GiB) in 9m 16s, read: 88.0 MiB/s, write: 0 B/s
161: 2021-01-29 19:38:55 INFO: 59% (9.2 GiB of 15.6 GiB) in 9m 19s, read: 146.7 MiB/s, write: 0 B/s
161: 2021-01-29 19:38:58 INFO: 63% (9.8 GiB of 15.6 GiB) in 9m 22s, read: 206.7 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:01 INFO: 64% (10.0 GiB of 15.6 GiB) in 9m 25s, read: 50.7 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:04 INFO: 67% (10.5 GiB of 15.6 GiB) in 9m 28s, read: 164.0 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:07 INFO: 70% (11.0 GiB of 15.6 GiB) in 9m 31s, read: 198.7 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:10 INFO: 75% (11.7 GiB of 15.6 GiB) in 9m 34s, read: 229.3 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:13 INFO: 78% (12.2 GiB of 15.6 GiB) in 9m 37s, read: 149.3 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:18 INFO: 79% (12.3 GiB of 15.6 GiB) in 9m 42s, read: 31.2 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:23 INFO: 80% (12.5 GiB of 15.6 GiB) in 9m 47s, read: 32.8 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:26 INFO: 82% (12.9 GiB of 15.6 GiB) in 9m 50s, read: 138.7 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:29 INFO: 86% (13.4 GiB of 15.6 GiB) in 9m 53s, read: 197.3 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:32 INFO: 87% (13.6 GiB of 15.6 GiB) in 9m 56s, read: 68.0 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:35 INFO: 88% (13.8 GiB of 15.6 GiB) in 9m 59s, read: 40.0 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:38 INFO: 92% (14.4 GiB of 15.6 GiB) in 10m 2s, read: 230.7 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:41 INFO: 95% (14.9 GiB of 15.6 GiB) in 10m 5s, read: 156.0 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:44 INFO: 96% (15.0 GiB of 15.6 GiB) in 10m 8s, read: 29.3 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:47 INFO: 98% (15.4 GiB of 15.6 GiB) in 10m 11s, read: 140.0 MiB/s, write: 0 B/s
161: 2021-01-29 19:39:50 INFO: 100% (15.6 GiB of 15.6 GiB) in 10m 14s, read: 61.4 MiB/s, write: 42.7 KiB/s
161: 2021-01-29 19:40:14 INFO: backup is sparse: 9.92 GiB (63%) total zero data
161: 2021-01-29 19:40:14 INFO: backup was done incrementally, reused 115.12 GiB (95%)
161: 2021-01-29 19:40:14 INFO: transferred 15.57 GiB in 638 seconds (25.0 MiB/s)
161: 2021-01-29 19:40:24 INFO: running 'proxmox-backup-client prune' for 'vm/161'
161: 2021-01-29 19:40:25 INFO: Finished Backup of VM 161 (00:11:35)

162: 2021-01-29 19:40:25 INFO: Starting Backup of VM 162 (qemu)
162: 2021-01-29 19:40:25 INFO: status = running
162: 2021-01-29 19:40:25 INFO: VM Name: 2
162: 2021-01-29 19:40:25 INFO: include disk 'scsi0' 'nasomv11-ZFS:vm-162-disk-1' 170G
162: 2021-01-29 19:40:25 INFO: include disk 'scsi1' 'nasomv7-ZFS:vm-162-disk-2' 1000G
162: 2021-01-29 19:40:25 INFO: include disk 'efidisk0' 'nasomv7-ZFS:vm-162-disk-1' 128K
162: 2021-01-29 19:40:26 INFO: backup mode: snapshot
162: 2021-01-29 19:40:26 INFO: ionice priority: 7
162: 2021-01-29 19:40:26 INFO: skip unused drive 'nasomv4-RAW-pve-storages:162/vm-162-disk-0.qcow2' (not included into backup)
162: 2021-01-29 19:40:26 INFO: skip unused drive 'nasomv11-ZFS:vm-162-disk-0' (not included into backup)
162: 2021-01-29 19:40:26 INFO: skip unused drive 'nasomv7-ZFS:vm-162-disk-0' (not included into backup)
162: 2021-01-29 19:40:26 INFO: snapshots found (not included into backup)
162: 2021-01-29 19:40:26 INFO: creating Proxmox Backup Server archive 'vm/162/2021-01-29T18:40:25Z'
162: 2021-01-29 19:40:26 INFO: issuing guest-agent 'fs-freeze' command
162: 2021-01-29 19:41:30 INFO: issuing guest-agent 'fs-thaw' command
162: 2021-01-29 19:41:40 ERROR: VM 162 qmp command 'guest-fsfreeze-thaw' failed - got timeout
162: 2021-01-29 19:41:40 ERROR: VM 162 qmp command 'backup' failed - got timeout
162: 2021-01-29 19:41:40 INFO: aborting backup job
162: 2021-01-29 19:41:45 ERROR: Backup of VM 162 failed - VM 162 qmp command 'backup' failed - got timeout
 
Live Mitschnitt, meist sehr schlecht. Wieso fällt dies keinem auf? Niemals wirklich echt einsetzbar. Ich baue gerade noch einen Single Host. Ich mache dann ein Single Host Backup und reporte morgen Abend. So geht's absolut nicht zufriedenstellend.
 

Attachments

  • Backups5.txt
    19.5 KB · Views: 7
Mich wundert es wir setzten das hier Aktiv ein in mehrern Umgebungen ohne Probleme.

Dein = Niemals wirklich einsetzbar würde ich daher nicht so stehen lassen. Das Problem liegt bei dir oder an deiner Hardware.
 
Kann sein. Aber wieso bei 9 Hosts? Ein anderer User reportet dies ebenfalls. Siehe meine Post.

Bei meiner Hardware liegt das Problem bestimmt nicht, dann eher bei mir. Sag mir was ich hier falsch mache! Die Werte sind gemessen und andere Backupsoftware rennt!
 
Interessantes setup. Aus eigenem interesse, was läuft denn da so alles drauf ?

Hast du mal atop nebenbei laufen lassen ? "atop 1" und schauen wie die auslastungen sind.

Bei mir laufen die backups nach wie vor performant.
 
Last edited:
Ein weiteres Backup von einem 8xSSD ZFS Storage.

So eine schlechte Performance keine ich nicht. Ich will wirklich helfen. "Alternative Wahrheiten" helfen sicher nicht. Meine Hardware ist sicher knapp unter "geil", deshalb unerklärlich. Aus Veeam habe eben parallel während des PBS Backups der VM mit 195MByte/s aus der gleiche VM inkrementell gesichert. Damit sollte mein "Beweisverfahren" als ALPHA Tester abgeschlossen sein. Sorry Wahrheit gehört auch dazu.

Ich bleibe dabei. Proxmox VE super geil und performant, vzdump und PBS Backup derzeit nicht produktiv bei großen Datenmengen einsetzbar. Und das sich das Proxmox hierzu nicht persönlich positioniert, macht mich nachdenklich und sauer.

Mein Setup ist sicherlich im oberen Bereich einzuordnen!


Eben hier aufgenommen, der schlechte LOG von meiner besten VM (VM-163, 8x NVMe R10 - was für'n Sch...!), bei 15% des PBS Backup's war die VM "innerhalb" mit Veeam parallel inkrementell komplett durch!

INFO: trying to get global lock - waiting...
INFO: got global lock
INFO: starting new backup job: vzdump 162 161 163 164 --mailnotification always --mode snapshot --all 0 --quiet 1 --node pve10 --storage pbs02
INFO: Starting Backup of VM 163 (qemu)
INFO: Backup started at 2021-01-29 21:30:28
INFO: status = running
INFO: VM Name:
INFO: include disk 'scsi0' 'nasomv11-ZFS:vm-163-disk-1' 866G
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: skip unused drive 'nasomv4-RAW-pve-storages:163/vm-163-disk-0.qcow2' (not included into backup)
INFO: skip unused drive 'nasomv11-ZFS:vm-163-disk-0' (not included into backup)
INFO: snapshots found (not included into backup)
INFO: creating Proxmox Backup Server archive 'vm/163/2021-01-29T20:30:28Z'
INFO: issuing guest-agent 'fs-freeze' command
INFO: issuing guest-agent 'fs-thaw' command
INFO: started backup task 'fc49eefe-ddd5-431c-b2c5-4be381813667'
INFO: resuming VM again
INFO: scsi0: dirty-bitmap status: OK (148.8 GiB of 866.0 GiB dirty)
INFO: using fast incremental mode (dirty-bitmap), 148.8 GiB dirty of 866.0 GiB total
INFO: 0% (384.0 MiB of 148.8 GiB) in 3s, read: 128.0 MiB/s, write: 128.0 MiB/s
INFO: 1% (1.5 GiB of 148.8 GiB) in 38s, read: 32.7 MiB/s, write: 32.5 MiB/s
INFO: 2% (3.0 GiB of 148.8 GiB) in 1m 21s, read: 35.3 MiB/s, write: 35.3 MiB/s
INFO: 3% (4.5 GiB of 148.8 GiB) in 2m 10s, read: 32.1 MiB/s, write: 32.1 MiB/s
INFO: 4% (6.0 GiB of 148.8 GiB) in 3m 1s, read: 29.1 MiB/s, write: 29.1 MiB/s
INFO: 5% (7.4 GiB of 148.8 GiB) in 3m 52s, read: 29.7 MiB/s, write: 29.5 MiB/s
INFO: 6% (8.9 GiB of 148.8 GiB) in 4m 44s, read: 29.4 MiB/s, write: 27.2 MiB/s
INFO: 7% (10.4 GiB of 148.8 GiB) in 5m 42s, read: 26.3 MiB/s, write: 26.3 MiB/s
INFO: 8% (11.9 GiB of 148.8 GiB) in 6m 25s, read: 35.6 MiB/s, write: 35.4 MiB/s
INFO: 9% (13.4 GiB of 148.8 GiB) in 7m 6s, read: 36.9 MiB/s, write: 36.7 MiB/s
INFO: 10% (14.9 GiB of 148.8 GiB) in 7m 56s, read: 30.4 MiB/s, write: 30.4 MiB/s
INFO: 11% (16.4 GiB of 148.8 GiB) in 8m 50s, read: 28.7 MiB/s, write: 28.7 MiB/s
INFO: 12% (17.9 GiB of 148.8 GiB) in 9m 44s, read: 28.6 MiB/s, write: 28.6 MiB/s
INFO: 13% (19.4 GiB of 148.8 GiB) in 10m 37s, read: 28.1 MiB/s, write: 27.9 MiB/s
INFO: 14% (20.8 GiB of 148.8 GiB) in 11m 28s, read: 29.5 MiB/s, write: 29.4 MiB/s
INFO: 15% (22.4 GiB of 148.8 GiB) in 12m 23s, read: 28.4 MiB/s, write: 28.4 MiB/s
INFO: 16% (23.8 GiB of 148.8 GiB) in 13m 18s, read: 27.1 MiB/s, write: 27.1 MiB/s
INFO: 17% (25.3 GiB of 148.8 GiB) in 14m 5s, read: 32.9 MiB/s, write: 32.6 MiB/s
INFO: 18% (26.8 GiB of 148.8 GiB) in 14m 56s, read: 29.3 MiB/s, write: 29.3 MiB/s
INFO: 19% (28.3 GiB of 148.8 GiB) in 15m 40s, read: 34.9 MiB/s, write: 34.9 MiB/s
INFO: 20% (29.8 GiB of 148.8 GiB) in 16m 30s, read: 31.0 MiB/s, write: 31.0 MiB/s
INFO: 21% (31.3 GiB of 148.8 GiB) in 17m 19s, read: 30.6 MiB/s, write: 30.6 MiB/s
INFO: 22% (32.7 GiB of 148.8 GiB) in 18m 7s, read: 31.7 MiB/s, write: 31.7 MiB/s
INFO: 23% (34.2 GiB of 148.8 GiB) in 19m 6s, read: 26.1 MiB/s, write: 25.9 MiB/s
INFO: 24% (35.7 GiB of 148.8 GiB) in 20m 25s, read: 19.3 MiB/s, write: 19.3 MiB/s
INFO: 25% (37.2 GiB of 148.8 GiB) in 21m 39s, read: 20.5 MiB/s, write: 20.4 MiB/s
 
Last edited:
Damit hier keine merkwürdigen Nachfragen oder "alternative Wahrheiten" aufkommen, der nächste Beweis:

Ihr merkt ich protokolliere, um nicht der Depp zu sein ... oder mir Schmarrn hier erzählen zu lassen ... -> Proxmox vzdump Backup oder PBS Backup ist bei meiner Hardware (wahrscheinlich im oberen Segment) derzeit nicht einsetzbar.

Ich habe extra deshalb heute Abend, auf ein Standard-Setup auf SSD (Intel S3710) umgestellt und dafür meine Eigenlösung USB ZFS Mirror mit Folder2RAM geopfert, um den Performance-Mist darzustellen.

VG crmspezi
 

Attachments

  • Backups6.txt
    31.3 KB · Views: 5
Last edited:
Nächstes LOG:

Und mittlerweile erbitte ich ein ehrliches Statement vom Hersteller, mein iX Test ist fertig. Ich bin gespannt.
 

Attachments

  • Backups7.txt
    29.2 KB · Views: 6
Last edited:
Htop alleine sagt nichts aus, ich meinte eher atop mit disk Auslastung unter "busy" und iops unter "avio" auf Quell Server sowie Ziel pbs.

Da nur 1 Kern zu 100% ausgelastet ist, gehe ich davon aus dass hier etwas single threaded läuft, da kann man dann noch so viele Kerne haben, bringt halt nichts.

Setzt mal ionice in /etc/vzdump.conf auf 1, nicht das es am sheduling liegt.
 
Leider nein, hier SSD Storage (nur Mirror)


INFO: starting new backup job: vzdump 152 --storage pbs02 --compress zstd --mailnotification always --quiet 1 --node pve11 --mode snapshot --all 0
INFO: Starting Backup of VM 152 (qemu)
INFO: Backup started at 2021-01-29 23:41:54
INFO: status = running
INFO: VM Name:
INFO: include disk 'scsi0' 'nasomv7-ZFS-SSD1:vm-152-disk-0' 470G
INFO: include disk 'scsi1' 'nasomv7-ZFS-SSD1:vm-152-disk-1' 120G
INFO: backup mode: snapshot
INFO: ionice priority: 1
INFO: snapshots found (not included into backup)
INFO: creating Proxmox Backup Server archive 'vm/152/2021-01-29T22:41:54Z'
INFO: issuing guest-agent 'fs-freeze' command
INFO: issuing guest-agent 'fs-thaw' command
INFO: started backup task 'a728ef72-5637-4600-81c5-719833e9552d'
INFO: resuming VM again
INFO: scsi0: dirty-bitmap status: OK (103.3 GiB of 470.0 GiB dirty)
INFO: scsi1: dirty-bitmap status: OK (3.2 GiB of 120.0 GiB dirty)
INFO: using fast incremental mode (dirty-bitmap), 106.5 GiB dirty of 590.0 GiB total
INFO: 0% (264.0 MiB of 106.5 GiB) in 3s, read: 88.0 MiB/s, write: 62.7 MiB/s
INFO: 1% (1.1 GiB of 106.5 GiB) in 13s, read: 84.8 MiB/s, write: 0 B/s
INFO: 2% (2.2 GiB of 106.5 GiB) in 26s, read: 84.9 MiB/s, write: 945.2 KiB/s
 
Htop alleine sagt nichts aus, ich meinte eher atop mit disk Auslastung unter "busy" und iops unter "avio" auf Quell Server sowie Ziel pbs.

Da nur 1 Kern zu 100% ausgelastet ist, gehe ich davon aus dass hier etwas single threaded läuft, da kann man dann noch so viele Kerne haben, bringt halt nichts.

Setzt mal ionice in /etc/vzdump.conf auf 1, nicht das es am sheduling liegt.

In der vzdump.conf kann man auch die Anzahl cores für zstd und gzip compression setzen (https://pve.proxmox.com/pve-docs/vzdump.1.html).

zstd=8 (für z.B. 8 cores)
pigz=8 (für z.B. 8 cores)
 
Ja, ich weiß, hatte es mal vor Monaten probiert, und dann ging I/O mäßig garnichts mehr. Danke für den Hinweis. Allerdings habe ich jetzt viel bessere Hardware als damals. Ich probiere heute noch den Tipp.

Ich bin gerade heute noch dran ein HW Raid basierenden PBS zu bauen um wirklich die derzeitigen Ziele mit ZFS RaidZ2 (12 SATA) und RaidZ1 (4 SATA) das absolut auszuschließen, auch wenn mit Veeam hier alles sehr schnell läuft auf die gleichen Ziele (auch parallel) läuft.

Ich hatte gestern nochmals auf die Hardwarevoraussetzungen für einen performanten PBS geprüft und war erschrocken (SSD Storage oder Special Device auf SSD bei HDD's). Ich vermute die Anforderungen liegen an der Technology mit Chunks. Ich bin gespannt auf meine Werte mit dem anderen PBS (dann Ext4 auf LSI HW (8x SATA beim Storage).
 
Last edited:
Also wie schon am Telefon gesagt läuft das bei uns besser alles bei dir. Hast du irgendwas vlan/Firewall dazwischen oder irgendwas ihm Backup lan? Veeam läuft in einer vm und pbs extern. Ach und wir wissen das du gute Hardware hast musst du nicht in jeder Antwort vermerken ;)
 
Also wie schon am Telefon gesagt läuft das bei uns besser alles bei dir. Hast du irgendwas vlan/Firewall dazwischen oder irgendwas ihm Backup lan? Veeam läuft in einer vm und pbs extern. Ach und wir wissen das du gute Hardware hast musst du nicht in jeder Antwort vermerken ;)
Das Proxmox Netzwerk ist mit dem PBS im gleichen Netz. Der PBS hat LACP 2x10GBit/s. Jeder PVE ist mit 1x 10GBit/s angebunden. Wie gesagt, auch NetIO vom PVE zum PBS ist im Durchschnitt bei 800MByte/s. Das mit dem erwähnen der Hardware war nur "vorbeugend" der Nachfragen, kein EGO Trip. Ich unterlasse das. Danke für Deine Hilfe.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!