Moin,
ich habe einen pve Cluster (6.3.3) und einen pbs (1.0-8).
Für ich sichere mehrere VMS erfolgreich zum PBS. Jetzt hatte ich aber folgenden Falls:
VM1, mehrere erfolgreiche manuelle Sicherungen auf den PBS
VM2, nicht ganz so viele erfolgreiche Sicherungen auf den PBS. Beide in den selben Store.
Danach habe ich einen automatischen Job angelegt.
Diesen auch mal manuel gestartet --> Lief
Danach (wenig später) automatisch laufen lassen --> Lief
Das war Gestern, heute die Automatik überwacht:
VM2 lief zuerst (geringere ID). Erfolgreich.
VM2 blieb beim folgenden stehen, bis ich dann nach mehreren Minuten (ca 15) abgebrochen habe:
Danach habe ich mit qm unlock die VM wieder freigegeben und den Backup manuell versucht:
Nach einem Neustart läuft wieder ein Backup:
Wodran kann das liegen?
Grüße
Gregor
ich habe einen pve Cluster (6.3.3) und einen pbs (1.0-8).
Für ich sichere mehrere VMS erfolgreich zum PBS. Jetzt hatte ich aber folgenden Falls:
VM1, mehrere erfolgreiche manuelle Sicherungen auf den PBS
VM2, nicht ganz so viele erfolgreiche Sicherungen auf den PBS. Beide in den selben Store.
Danach habe ich einen automatischen Job angelegt.
Diesen auch mal manuel gestartet --> Lief
Danach (wenig später) automatisch laufen lassen --> Lief
Das war Gestern, heute die Automatik überwacht:
VM2 lief zuerst (geringere ID). Erfolgreich.
VM2 blieb beim folgenden stehen, bis ich dann nach mehreren Minuten (ca 15) abgebrochen habe:
Code:
INFO: starting new backup job: vzdump 124 122 --mode snapshot --mailnotification always --storage PH-PBS001-STORE2 --mailto it-service@peiker-holding.de --quiet 1
INFO: skip external VMs: 122
INFO: Starting Backup of VM 124 (qemu)
INFO: Backup started at 2021-02-28 17:00:02
INFO: status = running
INFO: VM Name: PH-FILE-SERVER
INFO: include disk 'sata0' 'local-lvm:vm-124-disk-0' 720G
INFO: include disk 'sata1' 'local-lvm:vm-124-disk-1' 2000G
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: creating Proxmox Backup Server archive 'vm/124/2021-02-28T16:00:02Z'
INFO: issuing guest-agent 'fs-freeze' command
closing with read buffer at /usr/share/perl5/IO/Multiplex.pm line 927.
ERROR: interrupted by signal
INFO: issuing guest-agent 'fs-thaw' command
TASK ERROR: got unexpected control message:
Danach habe ich mit qm unlock die VM wieder freigegeben und den Backup manuell versucht:
Code:
INFO: starting new backup job: vzdump 124 --remove 0 --node ph-pve003 --storage PH-PBS001-STORE2 --mode snapshot
INFO: Starting Backup of VM 124 (qemu)
INFO: Backup started at 2021-02-28 17:47:18
INFO: status = running
INFO: VM Name: PH-FILE-SERVER
INFO: include disk 'sata0' 'local-lvm:vm-124-disk-0' 720G
INFO: include disk 'sata1' 'local-lvm:vm-124-disk-1' 2000G
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: creating Proxmox Backup Server archive 'vm/124/2021-02-28T16:47:18Z'
INFO: skipping guest-agent 'fs-freeze', agent configured but not running?
ERROR: VM 124 qmp command 'backup' failed - previous backup not finished
INFO: aborting backup job
ERROR: Backup of VM 124 failed - VM 124 qmp command 'backup' failed - previous backup not finished
INFO: Failed at 2021-02-28 17:47:22
INFO: Backup job finished with errors
TASK ERROR: job errors
Nach einem Neustart läuft wieder ein Backup:
Code:
INFO: starting new backup job: vzdump 124 --node ph-pve003 --storage PH-PBS001-STORE2 --remove 0 --mode snapshot
INFO: Starting Backup of VM 124 (qemu)
INFO: Backup started at 2021-02-28 18:12:55
INFO: status = running
INFO: VM Name: PH-FILE-SERVER
INFO: include disk 'sata0' 'local-lvm:vm-124-disk-0' 720G
INFO: include disk 'sata1' 'local-lvm:vm-124-disk-1' 2000G
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: creating Proxmox Backup Server archive 'vm/124/2021-02-28T17:12:55Z'
INFO: issuing guest-agent 'fs-freeze' command
INFO: issuing guest-agent 'fs-thaw' command
INFO: started backup task '294f38a2-58f6-4537-9578-8ab07c601be6'
INFO: resuming VM again
INFO: sata0: dirty-bitmap status: OK (9.6 GiB of 720.0 GiB dirty)
INFO: sata1: dirty-bitmap status: OK (356.0 MiB of 2.0 TiB dirty)
INFO: using fast incremental mode (dirty-bitmap), 9.9 GiB dirty of 2.7 TiB total
Wodran kann das liegen?
Grüße
Gregor