Performance Probleme beim Zurückspielen von Virtuellen Maschinen

Dec 14, 2015
13
3
23
52
Wenn ich eine Virtuelle Maschine auf meiner Proxmox VE 5.1 aus der Sicherung zurückspielen möchte, dann kann ich anhand der hohen Last mit einigen, teilweise sogar keinem weiteren Gast auf dem
Hypervisor kommunizieren. Gut ich habe hier einen betagten HP Proliant DL380 G6, aber unter Proxmox VE 4.x ohne Thin-Provisioning laufen weitere Virtuelle Maschinen die dieses Performance Problem nicht aufweisen.
Vorher hatte ich diesen Server mit ZFS installiert, jedoch wegen diesem Problem dann nochmals neu aufgesetzt und stattdessen ext4 verwendet, weil ich dort das Problem verortet habe. Mit dem gleichen Ergebnis.
Die Backups werden von einem Debian Jessie Storage-System über NFS bereitgestellt. Die Proxmox VE 4 Hypervisoren können ohne diesen Konnektivitätsproblemen die Virtuellen Maschinen zurücksichern.

Die Festplatten sind auf dem Proxmox VE 5.1 mit Thin-Provisioning installiert. Mit Thin-Provisioning haben andere Forenmitglieder bereits ähnliche Probleme geschildert.

Bekommen ich Probleme wenn ich das logische Laufwerk lösche und folgendermaßen neu einbinde?

lvremove /dev/pve/data
lvcreate -l 100%FREE -n pve/data
mke2fs /dev/pve/data

Oder habt ihr bessere Vorschläge um dieses Problem zu lösen?



Hier noch meine Version und Daten zum System:

pveversion -v
proxmox-ve: not correctly installed (running kernel: 4.13.4-1-pve)
pve-manager: 5.1-38 (running version: 5.1-38/1e9bc777)
pve-kernel-4.13.4-1-pve: 4.13.4-26
libpve-http-server-perl: 2.0-7
lvm2: 2.02.168-pve6
corosync: 2.4.2-pve3
libqb0: 1.0.1-1
pve-cluster: 5.0-19
qemu-server: 5.0-17
pve-firmware: not correctly installed
libpve-common-perl: 5.0-22
libpve-guest-common-perl: 2.0-13
libpve-access-control: 5.0-7
libpve-storage-perl: 5.0-17
pve-libspice-server1: 0.12.8-3
vncterm: 1.5-3
pve-docs: 5.1-12
pve-qemu-kvm: 2.9.1-3
pve-container: 2.0-17
pve-firewall: 3.0-5
pve-ha-manager: 2.0-4
ksm-control-daemon: 1.2-2
glusterfs-client: 3.8.8-1
lxc-pve: 2.1.1-2
lxcfs: 2.0.8-1
criu: 2.11.1-1~bpo90
novnc-pve: 0.6-4
smartmontools: 6.5+svn4324-1
zfsutils-linux: 0.7.3-pve1~bpo9


HP DL380 G6
Smart Array P410i HD Controller mit RAID 50
72 GB RAM

Danke im Voraus und sorry für den langen Post,
Gruß Robert
 
Das liegt am LVM thin, wenn viele neue Daten geschrieben werden, dann muss das Volume erweitert werden, damit läuft vermutlich ein Cache voll und es muss raus geschrieben werden. Beim Restore hat man momentan keine Möglichkeit ein Bandbreiten Limit anzugeben, aber ist angedacht. Als momentane Alternative könnte eine Limitierung über die Cgroups erfolgen. https://unix.stackexchange.com/a/393798
 
Ja wir haben die gleiche Serie hier an Servern laufen, haben aber auch LVM-Thin. Kommt bei uns auf die Platten an. Server mit 8 und mehr 15K Platten im Raid 10 kein Problem. Mit weniger Platten, oder sogar ein böses Raid5 verwenden wir hier LVM mit EXT4 und qcow2. Anders mögen das die alten Server nicht mehr schaufeln.
 
Gut, wir haben die 8 Platten mit Raid 50, allerdings 10k HDDs. Kleinere Virtuelle Maschinen kann man schon mal gut einspielen, aber bei größeren kann man keine VM's auf dem Hypervisor mehr ansprechen. Gestern hatte ich den Fall, dass die Web-Gui nicht nur keine Reaktion mehr zeigte, sondern sich auch nicht mehr erholte. Das ist dann schon sehr ärgerlich und für den Produktivbetrieb nicht tragbar.
Am liebsten wäre mir ja Ceph als dediziertes Storage, aber das ist für unsere kleine Firma im Moment noch nicht realisierbar.
 
Hallo,

ich hatte ein ähnliches Problem, ebenfalls auf einem HP DL380 G6 mit einem Smart Array P410i. Bei mir war der Cache vom Raid-Controller ausgeschaltet.

Falls das Problem weiterhin besteht kann ich eine kleine Anleitung schreiben wie man den Cache aktiviert.
 
Da muss ich mich bei euch jetzt bedanken, ich wusste zwar genau dass ich die Batterie angeschalten habe, aber den Status habe ich leider noch nicht im Monitoring. Die Batterie sollte mal dringend ausgetauscht werden!

root@pve1:~# ssacli ctrl all show status

Smart Array P410i in Slot 0 (Embedded)
Controller Status: OK
Cache Status: Temporarily Disabled
Battery/Capacitor Status: Failed (Replace Batteries/Capacitors)

Leider habe ich thin-lvm herausgenommen und auf /var/lib/vz ein normales Verzeichnis mit eingebunden. Ich hoffe anderen hilft der Beitrag, wenn auch als negativ Beispiel, wie man seine Systeme nicht im Griff haben sollte. Auf die Batterie bin ich nicht gekommen.

Grüße, Robert
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!