Hallo,
ich bin noch recht neu bei Proxmox und stehe gerade an.
Ich hab einen alten Desktop als Proxmox Testserver für ein paar Aufgaben und zum Lernen zu Hause eingerichtet.
Jetzt wollte ich die Backup und Restore Funktionen testen und habe von meiner zweiten gerade installierten VM Backup gezogen. Beim Wiederherstellen gab es einen Fehler:
Liege ich richtig, dass hier der Hund begraben liegt:
WARNING: Sum of all thin volume sizes (78.00 GiB) exceeds the size of thin pool pve/data (13.12 GiB).
Oder ist das nicht direkt relevant? Es würden sich ja schon die zwei logical volumes der VMs (14 + 32G) nicht in den 13.12 GiB ausgehen...
Beim Analysieren ist mir aufgefallen, dass bei der Installation vom Host scheinbar nicht die komplette Platte für das LVM reserviert wurden. Ich habe deshalb eine weitere Partition eingerichtet, dort ein PV erstellt und es der pve volume group hinzu gefügt.
output von
Und die LVM informationen:
Noch die Informationen zu den Thin LVMs:
So wie ich das verstehe, ist die data partition zu klein. Liege ich hier richtig?
Obwohl, wenn ich die Formel durchrechne:
185.80g / 64.00k * 64b =
185.88 * 10^9 / 64 * 10^3 * 64 = 185880000 = 185.88 M
Liegt weit unter den 13.12 G.
Wo liege ich hier falsch? Danke
ich bin noch recht neu bei Proxmox und stehe gerade an.
Ich hab einen alten Desktop als Proxmox Testserver für ein paar Aufgaben und zum Lernen zu Hause eingerichtet.
Jetzt wollte ich die Backup und Restore Funktionen testen und habe von meiner zweiten gerade installierten VM Backup gezogen. Beim Wiederherstellen gab es einen Fehler:
Code:
Virtual Environment 6.2-4
Search
Storage 'local' on node 'node-101'
Search:
Server View
Logs
()
restore vma archive: zstd -q -d -c /var/lib/vz/dump/vzdump-qemu-101-2020_09_30-21_06_01.vma.zst | vma extract -v -r /var/tmp/vzdumptmp13517.fifo - /var/tmp/vzdumptmp13517
CFG: size: 396 name: qemu-server.conf
DEV: dev_id=1 size: 34359738368 devname: drive-scsi0
CTIME: Wed Sep 30 21:06:02 2020
WARNING: You have not turned on protection against thin pools running out of space.
WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
Logical volume "vm-102-disk-0" created.
WARNING: Sum of all thin volume sizes (78.00 GiB) exceeds the size of thin pool pve/data (13.12 GiB).
new volume ID is 'local-lvm:vm-102-disk-0'
map 'drive-scsi0' to '/dev/pve/vm-102-disk-0' (write zeros = 0)
progress 1% (read 343605248 bytes, duration 1 sec)
progress 2% (read 687210496 bytes, duration 1 sec)
...
progress 98% (read 33672593408 bytes, duration 78 sec)
progress 99% (read 34016198656 bytes, duration 78 sec)
progress 100% (read 34359738368 bytes, duration 78 sec)
vma: restore failed - vma blk_flush drive-scsi0 failed
/bin/bash: line 1: 13519 Done zstd -q -d -c /var/lib/vz/dump/vzdump-qemu-101-2020_09_30-21_06_01.vma.zst
13520 Trace/breakpoint trap | vma extract -v -r /var/tmp/vzdumptmp13517.fifo - /var/tmp/vzdumptmp13517
Logical volume "vm-102-disk-0" successfully removed
temporary volume 'local-lvm:vm-102-disk-0' sucessfuly removed
no lock found trying to remove 'create' lock
TASK ERROR: command 'set -o pipefail && zstd -q -d -c /var/lib/vz/dump/vzdump-qemu-101-2020_09_30-21_06_01.vma.zst | vma extract -v -r /var/tmp/vzdumptmp13517.fifo - /var/tmp/vzdumptmp13517' failed: exit code 133
Liege ich richtig, dass hier der Hund begraben liegt:
WARNING: Sum of all thin volume sizes (78.00 GiB) exceeds the size of thin pool pve/data (13.12 GiB).
Oder ist das nicht direkt relevant? Es würden sich ja schon die zwei logical volumes der VMs (14 + 32G) nicht in den 13.12 GiB ausgehen...
Beim Analysieren ist mir aufgefallen, dass bei der Installation vom Host scheinbar nicht die komplette Platte für das LVM reserviert wurden. Ich habe deshalb eine weitere Partition eingerichtet, dort ein PV erstellt und es der pve volume group hinzu gefügt.
output von
fdisk /dev/sda
und p
:
Code:
Disk /dev/sda: 186.3 GiB, 200049647616 bytes, 390721968 sectors
Disk model: ST3200822A
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: A1FDA4DF-BD0B-466C-BB12-1DB6E4494B14
Device Start End Sectors Size Type
/dev/sda1 34 2047 2014 1007K BIOS boot
/dev/sda2 2048 1050623 1048576 512M EFI System
/dev/sda3 1050624 104857600 103806977 49.5G Linux LVM
/dev/sda4 104859648 390721934 285862287 136.3G Linux LVM
Und die LVM informationen:
Code:
root@node-101:~# pvs
PV VG Fmt Attr PSize PFree
/dev/sda3 pve lvm2 a-- <49.50g 6.12g
/dev/sda4 pve lvm2 a-- <136.31g <136.31g
root@node-101:~# vgs
VG #PV #LV #SN Attr VSize VFree
pve 2 5 0 wz--n- 185.80g 142.43g
root@node-101:~# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
data pve twi-aotz-- 13.12g 95.74 2.16
root pve -wi-ao---- 12.25g
swap pve -wi-ao---- 16.00g
vm-100-disk-0 pve Vwi-aotz-- 14.00g data 65.46
vm-101-disk-0 pve Vwi-a-tz-- 32.00g data 10.62
Noch die Informationen zu den Thin LVMs:
Code:
root@node-101:~# lvs -a -o name,size,chunk_size
LV LSize Chunk
data 13.12g 64.00k
[data_tdata] 13.12g 0
[data_tmeta] 1.00g 0
[lvol0_pmspare] 1.00g 0
root 12.25g 0
swap 16.00g 0
vm-100-disk-0 14.00g 0
vm-101-disk-0 32.00g 0
root@node-101:~# pvesm lvmthinscan pve
data
So wie ich das verstehe, ist die data partition zu klein. Liege ich hier richtig?
Obwohl, wenn ich die Formel durchrechne:
185.80g / 64.00k * 64b =
185.88 * 10^9 / 64 * 10^3 * 64 = 185880000 = 185.88 M
Liegt weit unter den 13.12 G.
Wo liege ich hier falsch? Danke
Last edited: