io-error nachdem weitere VM hinzugefügt (mehr Storage verteilt als verfügbar)

DasMoritz

Member
Jun 6, 2022
108
5
18
Hallo zusammen,

ich habe mir glaube ich ein Problem gebaut:
Am Wochenende habe ich zu späterer Stunde eine VM 102 mit 4TB Storage hinzugefügt.
Es bestehen bereits unterschiedliche VM's, die eine Zuweisung von ca. 11TB der insgesamt 13,85TB haben - die vHDD's sind zugewiesen, aber nicht voll.
Es wäre also genug Speicherplatz verfügbar, ich habe mir den nur selbst "zugebaut".

Wenn ich nun die VM102 mit den 4TB einschalten möchte, bekomme ich einen io-error.
Erster Gedankengang war, dass ich die VM einfach lösche und neu aufbaue, nur: Da Daten drauf, die ich ungerne verlieren möchte.

Eine Möglichkeit die Größe der vHDD's in Proxmox zu reduzieren sehe ich nicht.

Hat jemand einen Hinweis?

1685344834776.png

Code:
May 29 09:20:04 pve pvedaemon[3704550]: resume VM 102: UPID:pve:003886E6:1FADBC4D:64745224:qmresume:102:root@pam:
May 29 09:20:04 pve pvedaemon[3515029]: <root@pam> end task UPID:pve:003886E6:1FADBC4D:64745224:qmresume:102:root@pam: OK
May 29 09:21:02 pve pvestatd[3306]: metrics send error 'proxmox': 500 read timeout
May 29 09:21:03 pve pvestatd[3306]: metrics send error 'proxmox': 500 read timeout

Danke,
Moritz
 
Last edited:
Hi,
Hallo zusammen,

ich habe mir glaube ich ein Problem gebaut:
Am Wochenende habe ich zu späterer Stunde eine VM 102 mit 4TB Storage hinzugefügt.
Es bestehen bereits unterschiedliche VM's, die eine Zuweisung von ca. 11TB der insgesamt 13,85TB haben - die vHDD's sind zugewiesen, aber nicht voll.
Es wäre also genug Speicherplatz verfügbar, ich habe mir den nur selbst "zugebaut".
was sagt zfs list -o space?

Wenn ich nun die VM102 mit den 4TB einschalten möchte, bekomme ich einen io-error.
Erster Gedankengang war, dass ich die VM einfach lösche und neu aufbaue, nur: Da Daten drauf, die ich ungerne verlieren möchte.

Eine Möglichkeit die Größe der vHDD's in Proxmox zu reduzieren sehe ich nicht.

Hat jemand einen Hinweis?
Immer vorher ein Backup erstellen! Das kann zu Datenverlust führen, wenn etwas schief läuft: Zuerst das Dateisystem im Gast schrumpfen (z.B. mit einer Live-CD) und dann mit den CLI-Kommandes je nach Storage die virtuelle Disk verkleinern.

Alternativ nur die Daten selbst sichern und nach dem neu installieren zurück kopieren.
 
Hallo @fiona

ich bin dir hier noch eine Rückmeldung schuldig:
Code:
oot@pve:~# zfs list -o space
NAME                      AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
ZFS-Pool                  1.37G  12.6T        0B     96K             0B      12.6T
ZFS-Pool/vm-100-disk-0    1.44G   134M        0B   56.2M          77.8M         0B
ZFS-Pool/vm-100-disk-1    31.6G  33.0G        0B   2.74G          30.3G         0B
ZFS-Pool/vm-100-disk-2    4.84T  10.1T        0B   5.23T          4.84T         0B
ZFS-Pool/vm-100-disk-3    92.3G   516G        0B    425G          91.0G         0B
ZFS-Pool/vm-101-disk-0    1.37G  94.3G        0B   94.3G             0B         0B
ZFS-Pool/vm-102-disk-0    1.37G  28.4M        0B   28.4M             0B         0B
ZFS-Pool/vm-102-disk-2    1.37G  1.29T        0B   1.29T             0B         0B
ZFS-Pool/vm-103-disk-0    66.8G  66.0G        0B    598M          65.4G         0B
ZFS-Pool/vm-104-disk-0     430G   516G        0B   86.7G           429G         0B
ZFS-Pool/vm-105-disk-0    34.4G  33.0G        0B     56K          33.0G         0B
rpool                      209G  15.7G        0B     96K             0B      15.7G
rpool/ROOT                 209G  14.3G        0B     96K             0B      14.3G
rpool/ROOT/pve-1           209G  14.3G        0B   14.3G             0B         0B
rpool/data                 209G  1.32G        0B     96K             0B      1.32G
rpool/data/vm-102-disk-0   209G  28.4M        0B   28.4M             0B         0B
rpool/data/vm-102-disk-1   209G  1.29G        0B   1.29G             0B         0B

An das Dateisystem-Schrumpfen habe ich mich noch nicht herangetraut, zumal ich gerade versuche aus meinem Backup ein File-Restore durchzuführen (siehe paralleler Beitrag hier).
 
Code:
oot@pve:~# zfs list -o space
NAME                      AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
ZFS-Pool                  1.37G  12.6T        0B     96K             0B      12.6T
Ist also schon ~100% voll (nur noch 1.3 GiB frei) und bei ZFS kann es eben auch schon vorher zu Problemen kommen, weil es ein Copy-on-Write-Dateisystem ist.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!