Backupprobleme nach Update auf 7.1-14+ bzw. 7.1-4

gooni

New Member
Feb 13, 2021
22
0
1
37
Hallo zusammen,

wir haben meiner Meinung nach ein komisches Verhalten seitdem wir auf eine aktuellere Version gewechselt sind. Erst auf 7.1.-14+ (Glaube so hieß die vorherige Version) und nun sind wir bei 7.1-4.

Bei allen unseren VM´s (Windows 2019) befindet sich der Datenspeicher auf einer NAS (SSD) und sind via NFS angebunden.

Das Backup funktioniert nun nicht bei denen die Platten auf der NAS liegen und die Platten sich im RAW-Format befinden. Bei Maschinen welche sind im qcow2-Format befinden funktioniert das Backup einwandfrei.

Verschiebe ich die RAW-Disks auf den lokalen DS des Hosts funktioniert das Backup ebenfalls. Sowohl ein lokales Backup wie auch über den PBS.

Der Fehler äußert sich darin, dass während des Backups die VM abstürzt, die Verbindung zum DS verliert und das Backup dann irgendwann auf ein timeout läuft. Hier hilft nur ein Abbruch des Backups und verschieben auf den lokalen DS. Im Syslog erscheint folgender Fehler:

Code:
Nov 17 18:51:09 pve1 pvestatd[1269]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Nov 17 18:51:09 pve1 pvestatd[1269]: status update time (6.153 seconds)
Nov 17 18:51:20 pve1 pvestatd[1269]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Nov 17 18:51:20 pve1 pvestatd[1269]: status update time (6.189 seconds)
Nov 17 18:51:29 pve1 pvestatd[1269]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Nov 17 18:51:29 pve1 pvestatd[1269]: status update time (6.143 seconds)
Nov 17 18:51:39 pve1 pvestatd[1269]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Nov 17 18:51:39 pve1 pvestatd[1269]: status update time (6.143 seconds)
Nov 17 18:51:49 pve1 pvestatd[1269]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - unable to connect to VM 101 qmp socket - timeout after 31 retries
Nov 17 18:51:49 pve1 pvestatd[1269]: status update time (6.149 seconds)
Nov 17 18:52:01 pve1 pvestatd[1269]: VM 101 qmp command failed - VM 101 qmp command 'query-proxmox-support' failed - got timeout

usw..

Wir würden die Platten gerne wieder auf den SSD Speicher aufgrund der Performance verschieben. Ein Restore der Server bzw. umformen zu qcow2 und wieder zurück hat auch nicht geholfen.

Vielen Dank!

Nachtrag: Wenn ich eine bestehende VM zu RAW konvertiere, tritt der Fehler ebenfalls auf. Update auf 7.1.5 hat auch nicht geholfen.
 
Last edited:
Hallo zusammen,

das Problem existiert auch noch in 7.1.-8. Hat keiner eine Idee ? Die SQL Server laufen nun unter qcow2, was eher suboptimal ist. Habe nun alles erdenkliche versucht.

Code:
Header
Proxmox
Virtual Environment 7.1-8
Node 'pve1'
CPU usage
 
0.73% of 32 CPU(s)
   
IO delay
 
0.00%
Load average
 
2.73,3.07,2.57
RAM usage
 
48.44% (45.62 GiB of 94.18 GiB)
   
KSM sharing
 
6.24 GiB
/ HD space
 
2.44% (30.03 GiB of 1.20 TiB)
   
SWAP usage
 
14.16% (1.13 GiB of 8.00 GiB)
CPU(s)
 
32 x Intel(R) Xeon(R) CPU E5-2683 v4 @ 2.10GHz (1 Socket)
Kernel Version
 
Linux 5.13.19-2-pve #1 SMP PVE 5.13.19-4 (Mon, 29 Nov 2021 12:10:09 +0100)
PVE Manager Version
 
pve-manager/7.1-8/5b267f33
Repository Status
 
Proxmox VE updates Non production-ready repository enabled!
Logs
()
proxmox-ve: 7.1-1 (running kernel: 5.13.19-2-pve)
pve-manager: 7.1-8 (running version: 7.1-8/5b267f33)
pve-kernel-helper: 7.1-6
pve-kernel-5.13: 7.1-5
pve-kernel-5.11: 7.0-10
pve-kernel-5.4: 6.4-7
pve-kernel-5.13.19-2-pve: 5.13.19-4
pve-kernel-5.13.19-1-pve: 5.13.19-3
pve-kernel-5.11.22-7-pve: 5.11.22-12
pve-kernel-5.11.22-5-pve: 5.11.22-10
pve-kernel-5.4.143-1-pve: 5.4.143-1
pve-kernel-5.4.140-1-pve: 5.4.140-1
pve-kernel-5.4.128-1-pve: 5.4.128-2
pve-kernel-5.4.124-1-pve: 5.4.124-2
pve-kernel-5.4.119-1-pve: 5.4.119-1
pve-kernel-5.4.114-1-pve: 5.4.114-1
pve-kernel-5.4.106-1-pve: 5.4.106-1
ceph-fuse: 14.2.21-1
corosync: 3.1.5-pve2
criu: 3.15-1+pve-1
glusterfs-client: 9.2-1
ifupdown: not correctly installed
ifupdown2: 3.1.0-1+pmx3
ksm-control-daemon: 1.4-1
libjs-extjs: 7.0.0-1
libknet1: 1.22-pve2
libproxmox-acme-perl: 1.4.0
libproxmox-backup-qemu0: 1.2.0-1
libpve-access-control: 7.1-5
libpve-apiclient-perl: 3.2-1
libpve-common-perl: 7.0-14
libpve-guest-common-perl: 4.0-3
libpve-http-server-perl: 4.0-4
libpve-storage-perl: 7.0-15
libqb0: 1.0.5-1
libspice-server1: 0.14.3-2.1
lvm2: 2.03.11-2.1
lxc-pve: 4.0.11-1
lxcfs: 4.0.11-pve1
novnc-pve: 1.2.0-3
proxmox-backup-client: 2.1.2-1
proxmox-backup-file-restore: 2.1.2-1
proxmox-mini-journalreader: 1.3-1
proxmox-widget-toolkit: 3.4-4
pve-cluster: 7.1-2
pve-container: 4.1-3
pve-docs: 7.1-2
pve-edk2-firmware: 3.20210831-2
pve-firewall: 4.2-5
pve-firmware: 3.3-3
pve-ha-manager: 3.3-1
pve-i18n: 2.6-2
pve-qemu-kvm: 6.1.0-3
pve-xtermjs: 4.12.0-1
qemu-server: 7.1-4
smartmontools: 7.2-pve2
spiceterm: 3.2-2
swtpm: 0.7.0~rc1+2
vncterm: 1.7-1
zfsutils-linux: 2.1.1-pve3

Vielen Dank.
 
Hallo,

das Problem besteht auch mit der aktuellsten Version 7.1-10. Es wäre nett, wenn mir jemand einen Tipp geben könnte.

Vielen Dank.
 
Hallo,
ist die Disk mit sata and die VM angebunden? Falls ja, bitte eines von folgenden Workarounds versuchen:
  • die Disk bearbeiten und bei den erweiterten Einstellungen Async IO auf native setzten.
  • den Controller ändern
  • den 5.15 Kernel benutzen
Ansonsten bitte die Konfiguration der VM qm config <ID> und Storage /etc/pve/storage.cfg posten.
 
Hallo,
ist die Disk mit sata and die VM angebunden? Falls ja, bitte eines von folgenden Workarounds versuchen:
  • die Disk bearbeiten und bei den erweiterten Einstellungen Async IO auf native setzten.
  • den Controller ändern
  • den 5.15 Kernel benutzen
Ansonsten bitte die Konfiguration der VM qm config <ID> und Storage /etc/pve/storage.cfg posten.
Hi,

nein ist nicht per Sata angebunden:

QM Config

Code:
agent: 1
balloon: 0
boot: order=scsi0;net0
cores: 2
cpu: host
machine: pc-i440fx-5.2
memory: 4000
name: Win10ProTest
net0: virtio=AE:0D:81:76:AE:16,bridge=vmbr0
numa: 0
ostype: win10
scsi0: ProxmoxDS:200/vm-200-disk-0.raw,cache=writeback,size=80G
scsihw: virtio-scsi-pci
smbios1: uuid=ac4f1405-35b7-450b-a4f8-1fb11ace8aca
sockets: 1
vmgenid: f4af3e69-5e10-416b-84fc-508436d186a2

Storage.cgf

Code:
dir: local
        path /var/lib/vz
        content iso,vztmpl,backup,images
        shared 0

pbs: ProxmoxBS1
        datastore Backup1
        server 192.168.2.19
        content backup
        fingerprint 0c:07:97:b0:32:13:a9:d3:96:81:4e:49:b3:07:d2:f4:f7:c1:9e:14:8b:9e:95:30:81:f0:4b:69:80:91:da:ac
        prune-backups keep-all=1
        username root@pam

nfs: ProxmoxDS
        export /proxmoxds1
        path /mnt/pve/ProxmoxDS
        server 192.168.5.10
        content images
        prune-backups keep-all=1
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!