leider wiedermal PBS Performance

Naja gibt es eine Möglichkeit das du das rückgängig machst und dann nochmal testest. Die Werte passen für ein usb Port Geschwindigkeit.
Und ja ist weit hergeholt aber es gibt auch Leute die eine Standart Cluster nutzen in deiner Config Art und haben keine Probleme so wie du.
Leider kann ich die Root hier nicht mehr ändern. Aber ich könnte natürlich einen Testserver auf SSD aufsetzen oder auch einen USB Stick clonen auf eine SATA SSD, werde ich am WE machen können. Mir fällt aber wirklich nicht auf, wo denn hier außer im RAM beim Backup geschrieben werden könnte.

Aber probieren kann ich dies natürlich, auch wenn mir hier kein Zusammenhang klar wird.
 
Last edited:
Wäre es eine sinnvolle Testmöglichkeit in /etc/vzdump.conf tmpdir und dumpdir auf einen gemounteten SSD Speicher zu setzten? Da brauche ich keine stundenlangen Umbauarbeiten. Oder ist das nutzlos?
 
So, hier die Protokolle von vor dem Update 14.1.2021. Ca. doppelt so schnell scheint es.
 

Attachments

  • Backups4-aufbereitet-alte-Protokolle.txt
    61.8 KB · Views: 4
Also ich bin hier ausgestiegen. Es werden hier logs von verschiedensten Server mit unterschiedlicher Hardware verglichen, dazu PBS Backups einmal mit und einmal ohne dirty-bitmaps.

Um ein Problem einzugrenzen, bitte einfache Tests machen, die auch einfach vergleichbar sind.

Aber alle backups des letzten postings sind ja sowieso viel schneller wie das log vom ersten Post.? Wie gesagt, alles von aussen nicht nachvollziehbar.
 
vor dem Update 14.1.2021

Wir wissen nicht, welche updates am 14.1 hier eingespielt wurden. Bitte Versionsnummer der Packete angeben und kein Datum, an dem sie eingespielt wurden.
 
Also ich bin hier ausgestiegen. Es werden hier logs von verschiedensten Server mit unterschiedlicher Hardware verglichen, dazu PBS Backups einmal mit und einmal ohne dirty-bitmaps.

Um ein Problem einzugrenzen, bitte einfache Tests machen, die auch einfach vergleichbar sind.

Aber alle backups des letzten postings sind ja sowieso viel schneller wie das log vom ersten Post.? Wie gesagt, alles von aussen nicht nachvollziehbar.
Ja ist nicht ganz durchsichtig. Ich habe gestern LOG's von verschiedenen Servern (PVE03/08/11) gesendet mit aktuellen LOG's, heute von den gleichen Servern von gestern, jedoch mit älteren LOG's. Ich wollte damit zeigen, das die Hardware nicht so das Problem sein kann, wenn die Rate niedrig ist. Das Senden mit dirty-bitmaps oder ohne bestimmt nur die gesamte Datenmenge, nicht jedoch jedoch die Datenübertragungsraten MByte/s wenn ich das richtig verstanden habe. Und vor meine Updates am 14.1. liefen die Backups deutlich schneller im Durchschnitt. Einzelne VM's können sicher davon ausgenommen sein.

Aber auch andere User scheinen hier das ähnliche Verhalten zu haben, da bin ich scheinbar nicht allein. https://forum.proxmox.com/threads/6-3-vzdump-backup-bricht-ab-vm-bleibt-hängen.82431/, letzter Abschnitt, auch wenn es hier eigentlich um vzdump geht. Das hatte ich ja auch (gleicher Beitrag) getestet und war bei der kleinen Datenübertragungsrate mit vzdump auf gleichem Niveau wie mit PBS.
 
Wir wissen nicht, welche updates am 14.1 hier eingespielt wurden. Bitte Versionsnummer der Packete angeben und kein Datum, an dem sie eingespielt wurden.
Ich kann leider nicht den Release Stand vorher sagen, den aktuellen Release Stand hatte ich schon gesendet. Ich weiß leider nicht wo ich ein LOG finden tue. Seit dem Update habe ich kein Freeze bei Windows VM's mehr mit dem PBS Backup.
 
Hallo,
heute habe ich ein geplantes Backup auf den PBS mit 10 Windows VM's ab 19 Uhr durchgeführt und Stand dabei.

Windows 10: Freeze für fast eine MInute, die RDP Connection war weg , konnte aber manuell wieder aufgebaut werden.
Server 2019: wie in letzter Woche, nur Stop und Start möglich.

Waran das liegt weiß ich nicht, völlig wahllos. Hier die Log's:

# hier nicht eingefroren, aber abgebrochen
162: 2021-01-26 18:38:37 INFO: Starting Backup of VM 162 (qemu)
162: 2021-01-26 18:38:37 INFO: status = running
162: 2021-01-26 18:38:37 INFO: VM Name: xxxxxxxxxxxxxx
162: 2021-01-26 18:38:37 INFO: include disk 'scsi0' 'nasomv11-ZFS:vm-162-disk-1' 170G
162: 2021-01-26 18:38:37 INFO: include disk 'scsi1' 'nasomv7-ZFS:vm-162-disk-2' 1000G
162: 2021-01-26 18:38:37 INFO: include disk 'efidisk0' 'nasomv7-ZFS:vm-162-disk-1' 128K
162: 2021-01-26 18:38:37 INFO: backup mode: snapshot
162: 2021-01-26 18:38:37 INFO: ionice priority: 7
162: 2021-01-26 18:38:37 INFO: skip unused drive 'nasomv4-RAW-pve-storages:162/vm-162-disk-0.qcow2' (not included into backup)
162: 2021-01-26 18:38:37 INFO: skip unused drive 'nasomv11-ZFS:vm-162-disk-0' (not included into backup)
162: 2021-01-26 18:38:37 INFO: skip unused drive 'nasomv7-ZFS:vm-162-disk-0' (not included into backup)
162: 2021-01-26 18:38:37 INFO: snapshots found (not included into backup)
162: 2021-01-26 18:38:37 INFO: creating Proxmox Backup Server archive 'vm/162/2021-01-26T17:38:37Z'
162: 2021-01-26 18:38:38 INFO: issuing guest-agent 'fs-freeze' command
162: 2021-01-26 18:39:42 INFO: issuing guest-agent 'fs-thaw' command
162: 2021-01-26 18:39:52 ERROR: VM 162 qmp command 'guest-fsfreeze-thaw' failed - got timeout
162: 2021-01-26 18:39:52 ERROR: VM 162 qmp command 'backup' failed - got timeout
162: 2021-01-26 18:39:52 INFO: aborting backup job
162: 2021-01-26 18:40:02 ERROR: Backup of VM 162 failed - VM 162 qmp command 'backup' failed - got timeout

##################
# hier eingefroren und TOT
158: 2021-01-26 18:37:35 INFO: Starting Backup of VM 158 (qemu)
158: 2021-01-26 18:37:35 INFO: status = running
158: 2021-01-26 18:37:35 INFO: VM Name: xxxxxxxxxxxxxx
158: 2021-01-26 18:37:35 INFO: include disk 'scsi0' 'nasomv10-ZFS:vm-158-disk-0' 128G
158: 2021-01-26 18:37:35 INFO: include disk 'scsi1' 'nasomv10-ZFS:vm-158-disk-2' 2560G
158: 2021-01-26 18:37:35 INFO: include disk 'efidisk0' 'nasomv10-ZFS:vm-158-disk-1' 1M
158: 2021-01-26 18:37:37 INFO: backup mode: snapshot
158: 2021-01-26 18:37:37 INFO: ionice priority: 7
158: 2021-01-26 18:37:37 INFO: skip unused drive 'nasomv7-SSD2-pve-storages:158/vm-158-disk-0.qcow2' (not included into backup)
158: 2021-01-26 18:37:37 INFO: snapshots found (not included into backup)
158: 2021-01-26 18:37:37 INFO: creating Proxmox Backup Server archive 'vm/158/2021-01-26T17:37:35Z'
158: 2021-01-26 18:37:37 INFO: issuing guest-agent 'fs-freeze' command
158: 2021-01-26 18:38:54 INFO: issuing guest-agent 'fs-thaw' command
158: 2021-01-26 18:38:59 ERROR: VM 158 qmp command 'backup' failed - got timeout
158: 2021-01-26 18:38:59 INFO: aborting backup job
158: 2021-01-26 18:38:59 ERROR: VM 158 qmp command 'backup-cancel' failed - client closed connection
158: 2021-01-26 18:38:59 ERROR: Backup of VM 158 failed - VM 158 qmp command 'backup' failed - got timeout

#
# viele andere VM's liefen aber durch, aber mit unterirdischer Backup Performance mit kleinen MByte/s.

151: 2021-01-26 18:34:47 INFO: Starting Backup of VM 151 (qemu)
151: 2021-01-26 18:34:47 INFO: status = running
151: 2021-01-26 18:34:47 INFO: VM Name: xxxxxxxxxxx
151: 2021-01-26 18:34:47 INFO: include disk 'scsi0' 'nasomv10-ZFS:vm-151-disk-0' 20G
151: 2021-01-26 18:34:47 INFO: include disk 'scsi1' 'nasomv10-ZFS:vm-151-disk-1' 40G
151: 2021-01-26 18:34:48 INFO: backup mode: snapshot
151: 2021-01-26 18:34:48 INFO: ionice priority: 7
151: 2021-01-26 18:34:48 INFO: skip unused drive 'nasomv7-ZFS:vm-151-disk-1' (not included into backup)
151: 2021-01-26 18:34:48 INFO: skip unused drive 'nasomv7-ZFS:vm-151-disk-2' (not included into backup)
151: 2021-01-26 18:34:48 INFO: skip unused drive 'nasomv4-ZFS:vm-151-disk-0' (not included into backup)
151: 2021-01-26 18:34:48 INFO: skip unused drive 'nasomv4-ZFS:vm-151-disk-1' (not included into backup)
151: 2021-01-26 18:34:48 INFO: snapshots found (not included into backup)
151: 2021-01-26 18:34:48 INFO: creating Proxmox Backup Server archive 'vm/151/2021-01-26T17:34:47Z'
151: 2021-01-26 18:34:48 INFO: issuing guest-agent 'fs-freeze' command
151: 2021-01-26 18:35:33 INFO: issuing guest-agent 'fs-thaw' command
151: 2021-01-26 18:35:34 INFO: started backup task 'b596ce30-f3a1-4679-a2bd-90a67e5d8a80'
151: 2021-01-26 18:35:34 INFO: resuming VM again
151: 2021-01-26 18:35:34 INFO: scsi0: dirty-bitmap status: OK (824.0 MiB of 20.0 GiB dirty)
151: 2021-01-26 18:35:34 INFO: scsi1: dirty-bitmap status: OK (4.0 MiB of 40.0 GiB dirty)
151: 2021-01-26 18:35:34 INFO: using fast incremental mode (dirty-bitmap), 828.0 MiB dirty of 60.0 GiB total
151: 2021-01-26 18:35:37 INFO: 4% (36.0 MiB of 828.0 MiB) in 3s, read: 12.0 MiB/s, write: 12.0 MiB/s
151: 2021-01-26 18:35:42 INFO: 5% (48.0 MiB of 828.0 MiB) in 8s, read: 2.4 MiB/s, write: 2.4 MiB/s
151: 2021-01-26 18:35:45 INFO: 8% (68.0 MiB of 828.0 MiB) in 11s, read: 6.7 MiB/s, write: 6.7 MiB/s
151: 2021-01-26 18:35:48 INFO: 12% (104.0 MiB of 828.0 MiB) in 14s, read: 12.0 MiB/s, write: 12.0 MiB/s
151: 2021-01-26 18:35:51 INFO: 14% (124.0 MiB of 828.0 MiB) in 17s, read: 6.7 MiB/s, write: 6.7 MiB/s
151: 2021-01-26 18:35:54 INFO: 17% (148.0 MiB of 828.0 MiB) in 20s, read: 8.0 MiB/s, write: 8.0 MiB/s
151: 2021-01-26 18:35:57 INFO: 20% (168.0 MiB of 828.0 MiB) in 23s, read: 6.7 MiB/s, write: 6.7 MiB/s
151: 2021-01-26 18:36:00 INFO: 22% (184.0 MiB of 828.0 MiB) in 26s, read: 5.3 MiB/s, write: 5.3 MiB/s
151: 2021-01-26 18:36:03 INFO: 27% (224.0 MiB of 828.0 MiB) in 29s, read: 13.3 MiB/s, write: 10.7 MiB/s
151: 2021-01-26 18:36:06 INFO: 29% (244.0 MiB of 828.0 MiB) in 32s, read: 6.7 MiB/s, write: 6.7 MiB/s
151: 2021-01-26 18:36:09 INFO: 31% (260.0 MiB of 828.0 MiB) in 35s, read: 5.3 MiB/s, write: 5.3 MiB/s
151: 2021-01-26 18:36:12 INFO: 35% (292.0 MiB of 828.0 MiB) in 38s, read: 10.7 MiB/s, write: 10.7 MiB/s
151: 2021-01-26 18:36:15 INFO: 38% (316.0 MiB of 828.0 MiB) in 41s, read: 8.0 MiB/s, write: 8.0 MiB/s
151: 2021-01-26 18:36:18 INFO: 42% (356.0 MiB of 828.0 MiB) in 44s, read: 13.3 MiB/s, write: 13.3 MiB/s
151: 2021-01-26 18:36:21 INFO: 48% (404.0 MiB of 828.0 MiB) in 47s, read: 16.0 MiB/s, write: 16.0 MiB/s
151: 2021-01-26 18:36:24 INFO: 53% (440.0 MiB of 828.0 MiB) in 50s, read: 12.0 MiB/s, write: 12.0 MiB/s
151: 2021-01-26 18:36:27 INFO: 59% (496.0 MiB of 828.0 MiB) in 53s, read: 18.7 MiB/s, write: 17.3 MiB/s
151: 2021-01-26 18:36:30 INFO: 64% (536.0 MiB of 828.0 MiB) in 56s, read: 13.3 MiB/s, write: 13.3 MiB/s
151: 2021-01-26 18:36:33 INFO: 71% (588.0 MiB of 828.0 MiB) in 59s, read: 17.3 MiB/s, write: 17.3 MiB/s
151: 2021-01-26 18:36:36 INFO: 75% (628.0 MiB of 828.0 MiB) in 1m 2s, read: 13.3 MiB/s, write: 13.3 MiB/s
151: 2021-01-26 18:36:39 INFO: 80% (668.0 MiB of 828.0 MiB) in 1m 5s, read: 13.3 MiB/s, write: 13.3 MiB/s
151: 2021-01-26 18:36:42 INFO: 86% (720.0 MiB of 828.0 MiB) in 1m 8s, read: 17.3 MiB/s, write: 9.3 MiB/s
151: 2021-01-26 18:36:45 INFO: 88% (736.0 MiB of 828.0 MiB) in 1m 11s, read: 5.3 MiB/s, write: 4.0 MiB/s
151: 2021-01-26 18:36:48 INFO: 92% (768.0 MiB of 828.0 MiB) in 1m 14s, read: 10.7 MiB/s, write: 10.7 MiB/s
151: 2021-01-26 18:36:51 INFO: 96% (796.0 MiB of 828.0 MiB) in 1m 17s, read: 9.3 MiB/s, write: 8.0 MiB/s
151: 2021-01-26 18:36:54 INFO: 99% (820.0 MiB of 828.0 MiB) in 1m 20s, read: 8.0 MiB/s, write: 8.0 MiB/s
151: 2021-01-26 18:36:57 INFO: 100% (828.0 MiB of 828.0 MiB) in 1m 23s, read: 2.7 MiB/s, write: 2.7 MiB/s
151: 2021-01-26 18:37:25 INFO: backup was done incrementally, reused 59.23 GiB (98%)
151: 2021-01-26 18:37:25 INFO: transferred 828.00 MiB in 111 seconds (7.5 MiB/s)
151: 2021-01-26 18:37:35 INFO: running 'proxmox-backup-client prune' for 'vm/151'
151: 2021-01-26 18:37:35 INFO: Finished Backup of VM 151 (00:02:48)

Ich schalte erstmal die PVE Backups ab, baue am WE auf eine Boot SSD um und beobachte.

Hier die Zugriffe auf den rpool bei diesem schlechten Werten bei meinen USB Stick ZFS Mirror mit Folder2RAM:

zpool iostat 1
capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
rpool 3.05G 21.0G 0 35 856 580K
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 190 0 2.81M
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 178 0 2.88M
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 17 0 616K
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 75 0 1.37M
rpool 3.05G 21.0G 0 80 0 915K
rpool 3.05G 21.0G 0 102 0 2.10M
rpool 3.05G 21.0G 0 77 0 736K
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 124 0 2.45M
rpool 3.05G 21.0G 0 69 0 488K
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 52 0 1.46M
rpool 3.05G 21.0G 0 142 0 1.58M
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 198 0 3.06M
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
rpool 3.05G 21.0G 0 0 0 0
^
 
Last edited:
Hier der angekündigte Umbau von USB-Stick ZFS Mirror auf ZFS Single SSD und Backup Test um den Verdacht der USB-Sticks für die Performance Einbrüche beim PBS Backup zu widerlegen:

Proxmox
Virtual Environment 6.3-3
Suche
Virtuelle Maschine 128 auf Knoten 'pve09' (backup)
Server-Ansicht
Logs
INFO: starting new backup job: vzdump 128 --quiet 1 --mode snapshot --node pve09 --mailnotification always --all 0 --storage pbs02
INFO: Starting Backup of VM 128 (qemu)
INFO: Backup started at 2021-01-29 17:02:49
INFO: status = running
INFO: VM Name:
INFO: include disk 'scsi0' 'nasomv7-ZFS-SSD1:vm-128-disk-0' 470G
INFO: include disk 'scsi1' 'nasomv7-ZFS-SSD1:vm-128-disk-1' 120G
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: snapshots found (not included into backup)
INFO: creating Proxmox Backup Server archive 'vm/128/2021-01-29T16:02:49Z'
INFO: issuing guest-agent 'fs-freeze' command
INFO: issuing guest-agent 'fs-thaw' command
INFO: started backup task '8e3a2de9-84ea-4d64-ac0d-75e66745dc34'
INFO: resuming VM again
INFO: scsi0: dirty-bitmap status: created new
INFO: scsi1: dirty-bitmap status: created new
INFO: 0% (268.0 MiB of 590.0 GiB) in 3s, read: 89.3 MiB/s, write: 5.3 MiB/s
INFO: 1% (5.9 GiB of 590.0 GiB) in 1m 29s, read: 67.5 MiB/s, write: 571.5 KiB/s
INFO: 2% (11.8 GiB of 590.0 GiB) in 2m 59s, read: 66.8 MiB/s, write: 0 B/s
INFO: 3% (17.7 GiB of 590.0 GiB) in 4m 30s, read: 66.9 MiB/s, write: 0 B/s
INFO: 4% (23.6 GiB of 590.0 GiB) in 6m 2s, read: 65.7 MiB/s, write: 44.5 KiB/s
INFO: 5% (29.5 GiB of 590.0 GiB) in 7m 33s, read: 66.3 MiB/s, write: 0 B/s
INFO: 6% (35.5 GiB of 590.0 GiB) in 9m 4s, read: 66.6 MiB/s, write: 135.0 KiB/s
INFO: 7% (41.3 GiB of 590.0 GiB) in 10m 34s, read: 66.5 MiB/s, write: 45.5 KiB/s
INFO: 8% (47.2 GiB of 590.0 GiB) in 12m 5s, read: 66.5 MiB/s, write: 45.0 KiB/s
INFO: 9% (53.1 GiB of 590.0 GiB) in 13m 23s, read: 77.7 MiB/s, write: 52.5 KiB/s
INFO: 10% (59.1 GiB of 590.0 GiB) in 14m 41s, read: 77.7 MiB/s, write: 2.9 MiB/s
INFO: 11% (65.0 GiB of 590.0 GiB) in 15m 50s, read: 87.8 MiB/s, write: 0 B/s
INFO: 12% (70.8 GiB of 590.0 GiB) in 17m 1s, read: 84.3 MiB/s, write: 0 B/s
INFO: 13% (76.7 GiB of 590.0 GiB) in 18m 13s, read: 84.2 MiB/s, write: 0 B/s

Ich breche den Test hier ab und baue auf mein bewährtes ZFS-Mirror auf USB-Sticks mit Folder2RAM (wegen Sicherheit) zurück. Ich kann eindeutig sagen, das die Performance vom Root Datenträger mit meinen Folder2RAM Anpassungen unabhängig vom Medium bei der Performance mit dem PBS ist.

Auch wenn ich hier den Entwicklern gern was anderes berichteten würde, Backup zum PBS und vzdump sind bei mir seit dem 14.1. (Updatedatum zum letzten Release) nicht mehr ernsthaft in einem zeitlichen Rahmen zu gebrauchen. vzdump ist hier noch viel schlimmer dran. (nasomv6 ist der gleiche Host (OpenMediavault mit PBS Installation) wie pbs02 bei mir, nur anderes VDEV).

INFO: starting new backup job: vzdump 128 --compress zstd --storage nasomv6-pve-storages --quiet 1 --mode snapshot --node pve09 --mailnotification always --all 0
INFO: Starting Backup of VM 128 (qemu)
INFO: Backup started at 2021-01-29 17:32:03
INFO: status = running
INFO: VM Name:
INFO: include disk 'scsi0' 'nasomv7-ZFS-SSD1:vm-128-disk-0' 470G
INFO: include disk 'scsi1' 'nasomv7-ZFS-SSD1:vm-128-disk-1' 120G
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: snapshots found (not included into backup)
INFO: creating vzdump archive '/mnt/pve/nasomv6-pve-storages/dump/vzdump-qemu-128-2021_01_29-17_32_03.vma.zst'
INFO: issuing guest-agent 'fs-freeze' command
INFO: issuing guest-agent 'fs-thaw' command
INFO: started backup task '0e58359f-ce9c-463e-b2ad-a155f484aa7d'
INFO: resuming VM again
INFO: 0% (6.6 MiB of 590.0 GiB) in 3s, read: 2.2 MiB/s, write: 1.9 MiB/s

Das steht schon seit 10min so.

Ich hoffe auf ein Release was brauchbar ist. Nochmals zur Erinnerung, das Verhalten ist auf allen meinen Hosts so und auch zu einem anderen PBS (PBS01- andere Hardware) und meine Veeam Sicherungen aus den VM's heraus laufen locker mit 150-250MByte/s gleichzeitig auf den selben Storage.

VG crmspezi
 
Welches update Packet hat denn den Unterschied gebracht?

Wir sehen diese Veränderung bei keinem unsere Test- und Produktivsystemen, d.h. irgendwas scheint bei dir anderst zu sein.
 
Da es ci
Leider weis ich es auch nicht. Bei mir trifft es 9 Hosts, nicht nur eins.
Da es sich hier ja um kommerzielle System handelt?, empfehle ich eine Analyse durch unser Enterprise Support Team.
 
Ja, da wundert es mich manchmal auch. Die Stromkosten haben mir im letzten Jahr mit knapp 10K doch auch Nachfragen von meine Besten eingebracht :). Mit meinen 55 macht das trotzdem Spaß!
 
scsi1: dirty-bitmap status: created new

wird ja immer neu angelegt. daher de Laufzeit.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!