[SOLVED] Backup Wiederherstellen schlägt fehl

Andreas S.

Member
Sep 30, 2020
8
3
8
48
Hallo,

ich bin noch recht neu bei Proxmox und stehe gerade an.

Ich hab einen alten Desktop als Proxmox Testserver für ein paar Aufgaben und zum Lernen zu Hause eingerichtet.

Jetzt wollte ich die Backup und Restore Funktionen testen und habe von meiner zweiten gerade installierten VM Backup gezogen. Beim Wiederherstellen gab es einen Fehler:

Code:
Virtual Environment 6.2-4
Search
Storage 'local' on node 'node-101'
Search:
Server View
Logs
()
restore vma archive: zstd -q -d -c /var/lib/vz/dump/vzdump-qemu-101-2020_09_30-21_06_01.vma.zst | vma extract -v -r /var/tmp/vzdumptmp13517.fifo - /var/tmp/vzdumptmp13517
CFG: size: 396 name: qemu-server.conf
DEV: dev_id=1 size: 34359738368 devname: drive-scsi0
CTIME: Wed Sep 30 21:06:02 2020
  WARNING: You have not turned on protection against thin pools running out of space.
  WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
  Logical volume "vm-102-disk-0" created.
  WARNING: Sum of all thin volume sizes (78.00 GiB) exceeds the size of thin pool pve/data (13.12 GiB).
new volume ID is 'local-lvm:vm-102-disk-0'
map 'drive-scsi0' to '/dev/pve/vm-102-disk-0' (write zeros = 0)
progress 1% (read 343605248 bytes, duration 1 sec)
progress 2% (read 687210496 bytes, duration 1 sec)
...
progress 98% (read 33672593408 bytes, duration 78 sec)
progress 99% (read 34016198656 bytes, duration 78 sec)
progress 100% (read 34359738368 bytes, duration 78 sec)
vma: restore failed - vma blk_flush drive-scsi0 failed
/bin/bash: line 1: 13519 Done                    zstd -q -d -c /var/lib/vz/dump/vzdump-qemu-101-2020_09_30-21_06_01.vma.zst
     13520 Trace/breakpoint trap   | vma extract -v -r /var/tmp/vzdumptmp13517.fifo - /var/tmp/vzdumptmp13517
  Logical volume "vm-102-disk-0" successfully removed
temporary volume 'local-lvm:vm-102-disk-0' sucessfuly removed
no lock found trying to remove 'create'  lock
TASK ERROR: command 'set -o pipefail && zstd -q -d -c /var/lib/vz/dump/vzdump-qemu-101-2020_09_30-21_06_01.vma.zst | vma extract -v -r /var/tmp/vzdumptmp13517.fifo - /var/tmp/vzdumptmp13517' failed: exit code 133

Liege ich richtig, dass hier der Hund begraben liegt:
WARNING: Sum of all thin volume sizes (78.00 GiB) exceeds the size of thin pool pve/data (13.12 GiB).

Oder ist das nicht direkt relevant? Es würden sich ja schon die zwei logical volumes der VMs (14 + 32G) nicht in den 13.12 GiB ausgehen...

Beim Analysieren ist mir aufgefallen, dass bei der Installation vom Host scheinbar nicht die komplette Platte für das LVM reserviert wurden. Ich habe deshalb eine weitere Partition eingerichtet, dort ein PV erstellt und es der pve volume group hinzu gefügt.

output von fdisk /dev/sda und p:
Code:
Disk /dev/sda: 186.3 GiB, 200049647616 bytes, 390721968 sectors
Disk model: ST3200822A
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: A1FDA4DF-BD0B-466C-BB12-1DB6E4494B14

Device         Start       End   Sectors   Size Type
/dev/sda1         34      2047      2014  1007K BIOS boot
/dev/sda2       2048   1050623   1048576   512M EFI System
/dev/sda3    1050624 104857600 103806977  49.5G Linux LVM
/dev/sda4  104859648 390721934 285862287 136.3G Linux LVM

Und die LVM informationen:
Code:
root@node-101:~# pvs
  PV         VG  Fmt  Attr PSize    PFree
  /dev/sda3  pve lvm2 a--   <49.50g    6.12g
  /dev/sda4  pve lvm2 a--  <136.31g <136.31g

root@node-101:~# vgs
  VG  #PV #LV #SN Attr   VSize   VFree
  pve   2   5   0 wz--n- 185.80g 142.43g

root@node-101:~# lvs
  LV            VG  Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data          pve twi-aotz-- 13.12g             95.74  2.16
  root          pve -wi-ao---- 12.25g
  swap          pve -wi-ao---- 16.00g
  vm-100-disk-0 pve Vwi-aotz-- 14.00g data        65.46
  vm-101-disk-0 pve Vwi-a-tz-- 32.00g data        10.62

Noch die Informationen zu den Thin LVMs:
Code:
root@node-101:~# lvs -a -o name,size,chunk_size
  LV              LSize  Chunk
  data            13.12g 64.00k
  [data_tdata]    13.12g     0
  [data_tmeta]     1.00g     0
  [lvol0_pmspare]  1.00g     0
  root            12.25g     0
  swap            16.00g     0
  vm-100-disk-0   14.00g     0
  vm-101-disk-0   32.00g     0
root@node-101:~# pvesm lvmthinscan pve
data

So wie ich das verstehe, ist die data partition zu klein. Liege ich hier richtig?

Obwohl, wenn ich die Formel durchrechne:

185.80g / 64.00k * 64b =
185.88 * 10^9 / 64 * 10^3 * 64 = 185880000 = 185.88 M

Liegt weit unter den 13.12 G.

Wo liege ich hier falsch? Danke
 
Last edited:
Du kannst beim Wiederherstellen eines Backups ja den Storage angeben, wohin die VM wiederhergestellt werden soll. Hast du da mal die neu erstellte große LVM als Ziel versucht? Bevor du die neue LVM als Ziel wählen kannst musst du die LVM erst zu Proxmox hinzufügen (falls per shell direkt erstellt) und dieser dann auch noch den Storage Type "disk image" und/oder "container" verpassen.
 
Ok, ich hab hier LVM thin provisioning noch nicht richtig verstanden gehabt.
Der Pool (also das logical volume data) war einfach zu klein.
Ich hab's erst einmal vergrößert und auch noch [auto extend aktiviert](https://www.thegeekdiary.com/how-to-enable-thin-lvm-automatic-extension/).

Danke für eure Zeit.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!