Was kann ich bei dieser Warnung machen.??

moonsorrox

Well-Known Member
Mar 7, 2017
232
6
58
Germany
wenn ich einen Snapshot mache bekomme ich diese Meldung.
Wo muss ich das einstellen, damit die Meldung nicht mehr erscheint.

WARNING: You have not turned on protection against thin pools running out of space. WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full. Logical volume "snap_vm-102-disk-0_ReverseProxy" created. WARNING: Sum of all thin volume sizes (100.00 GiB) exceeds the size of thin pool pve/data and the amount of free space in volume group (14.75 GiB).

Ein df -h ergibt folgendes:
Code:
root@pve:~# df -h
Filesystem            Size  Used Avail Use% Mounted on
udev                  3.9G     0  3.9G   0% /dev
tmpfs                 784M   17M  767M   3% /run
/dev/mapper/pve-root   29G  4.6G   23G  17% /
tmpfs                 3.9G   43M  3.8G   2% /dev/shm
tmpfs                 5.0M     0  5.0M   0% /run/lock
tmpfs                 3.9G     0  3.9G   0% /sys/fs/cgroup
/dev/sda2             511M  312K  511M   1% /boot/efi
/dev/fuse              30M   20K   30M   1% /etc/pve
tmpfs                 784M     0  784M   0% /run/user/0
 
Ich kenne die Warnung zwar nicht, aber die Bedeutung ist an und für sich selbsterklärend:
Du hast noch 14.75 GB auf LVM-thin frei, deine virtuellen Festplatten der VMs haben aber mehr Platz eingestellt.
Sprich irgendwann geht dir der Platz auf der echten Platte aus und die VM glaubt, sie hat noch ausreichend Platz.
 
genau das ist ja das was ich nicht verstehe Meine SSD hat 120GB die beiden Container die ich drauf habe zusammen 30GB.
EIner 10GB und der andere 20GB.
Das ist doch absolut OK vom Platz her
 
qm ist nur für VMs.
Entsprechendes LXC Gegenstück wären:
pct list
pct config <vmid>
 
Evtl. liegt es daran das der eine LXC 76% voll ist, dies wäre der 20GB Container. Kann ich den im nachhinein vergrößern
 
pct list:
VMID Status Lock Name 100 running Adguard 102 running Ubuntu-Nginx

root@pve:~# pct config 100
Code:
arch: amd64
cores: 2
hostname: Adguard
memory: 2048
net0: name=eth0,bridge=vmbr0,firewall=1,gw=10.0.0.1,hwaddr=8E:2C:A5:F8:E6:BE,ip=10.0.0.20/24,type=veth
onboot: 1
ostype: debian
parent: Adguard
rootfs: local-lvm:vm-100-disk-0,size=10G
swap: 2048
unprivileged: 1

root@pve:~# pct config 102
Code:
arch: amd64
cores: 4
features: keyctl=1,nesting=1
hostname: Ubuntu-Nginx
memory: 4096
net0: name=eth0,bridge=vmbr0,firewall=1,gw=10.0.0.1,hwaddr=5E:CA:99:29:F3:34,ip=10.0.0.10/24,type=veth
onboot: 1
ostype: ubuntu
parent: ReverseProxy
rootfs: local-lvm:vm-102-disk-0,size=20G
swap: 4096
unprivileged: 1
 
Die Warnung selbst ist erst einmal nichts bedrohliches. Ist ja bei Overprovisioning normal, dass man den Gästen mehr Speicherplatz zuteilt, als physisch wirklich zur Verfügung steht. Dann muss man den verbleibenden Speicherplatz aber auch selbst zuverlässig überwachen und schnell genug mehr Speicherplatz erweitert, sobald man in den Bereich kommt, wo langsam der Platz auf dem Host ausgeht. Du kannst den LXCs auch 1TB Speicherplatz verpassen, selbst wenn du nur 29GB physisch besitzt, alle Gäste zusammen dürfen aber nie mehr als 29GB gleichzeitig benutzen.
Daher die Warnung, dass du mehr Speicher an die Gäste verteilt hast, als wie du physisch besitzt.

Da kannst du die Warnung dann ignorieren und den Speicherplatz manuell überwachen und ggf nachrüsten oder du hörst auf mit dem Overprovisioning und gibst den Gästen in der Summe nicht mehr Speicherplatz als du wirklich besitzt.

Jetzt hast du den LXCs ja 30GB verpasst, obwohl dein root auf dem host nur 29GB besitzt. Und von den 29GB braucht dann ja auch noch Proxmox etwas, also stehen den Gästen nicht einmal 29GB zur Verfügung sondern vielleicht eher 25GB oder so.
 
Last edited:
Vielleicht ein interessanter Forumspost:
Für die, die wie ich über diesen Beitrag stolpern: "Thin Provisioning" bedeutet, dass man mit LVM Volumes anlegen kann, die insgesamt mehr Speicherplatz haben, als physikalisch vorhanden ist - beispielsweise 10x 100 GB, obwohl die Festplatte nur 500 GB groß ist.

Wenn die Volumes dann mit in Summe über 500 GB Daten beschrieben werden, kommt es zu dubiosen I/O-Errors und Daten gehen verloren.

Quelle: https://forum.proxmox.com/threads/w...gainst-thin-pools-running-out-of-space.56968/
 
Anscheinend läuft ein Snapshot des Containers 102 mit. Der wird langsam größer. Und zwar größer wie Deine Data Platte ist. Lösch den Snapshot mal wenn Du ihn nicht mehr brauchst.
 
Ja das kann natürlich sein, ich habe von beiden LXC ein Snapshot angelegt zur Sicherheit.

@Dunuin
wo siehst du das mein root nur 29GB groß ist..?
dann verstehe ich das auch warum die Gäste nur 29GB groß sein dürfen..
Meine SSD im Gerät ist doch aber 120GB
 
Musst du mal lvs und vgs ausführen. Dann siehst du, wieviel da LVM wie und wo belegt.
 
Es steht doch alles in der Meldung drin.
Beide Container belegen aktuell 100GB und es sind nur noch 14 GB auf der VG pve/data frei.
Daher der Hinweis das es langsam ernst wird und du kein Schutz für das zulaufen des Speichers angelegt hast.
 
Last edited:
OK hier mal meine Rückmeldung... um Platz zu sparen habe ich jetzt alles was auf der 120Gb SSD drauf ist ausgelagert.
Es sind jetzt praktisch nur die beiden Container drauf.
Eingebunden habe ich per CIFS habe ich jetzt eine HDD von meinem Unraid mit dem Backup Verzeichnis und weitere Ordner für ISOs, Backups und Templates.
So finde ich es absolut in Ordnung, brauche jetzt die SSD nicht durch eine größere ersetzen, denn was hier drauf kommt da reicht der Platz allemal und der Intel NUC ist für meine Anforderungen absolut OK.
Die ISOs liegen auch auf dem Server und die Bachups eben so.
Danke für eure Hilfestellung
 
  • Like
Reactions: Dunuin
Ich habe das gleiche Problem. Gibt es eine andere Lösung wie von moonsorrox?

root@proxmox:~# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
data pve twi-aotz-- 54.30g 54.01 2.50
root pve -wi-ao---- <39.69g
swap pve -wi-ao---- 8.00g
vm-100-disk-0 pve Vwi-aotz-- 50.00g data 36.95
vm-101-disk-0 pve Vwi-aotz-- 30.00g data 36.16
root@proxmox:~# pct list
VMID Status Lock Name
100 running iobroker
101 running pihole
root@proxmox:~# pct config 100
arch: amd64
cores: 2
features: nesting=1
hostname: iobroker
memory: 4096
net0: name=eth0,bridge=vmbr0,firewall=1,gw=192.168.1.1,hwaddr=52:34:DD:82:BF:4B,ip=192.168.1.3/24,type=veth
onboot: 1
ostype: debian
rootfs: local-lvm:vm-100-disk-0,size=50G
swap: 512
tty: 3
unprivileged: 1
lxc.cgroup2.devices.allow: c 189:* rwm
lxc.mount.entry: /dev/bus/usb/001/002 dev/bus/usb/ none bind,optional,create=file
lxc.cgroup2.devices.allow: c 166:* rwm
lxc.mount.entry: /dev/ttyACM0 dev/ttyACM0 none bind,optional,create=file
root@proxmox:~# pct config 101
arch: amd64
cores: 2
features: nesting=1
hostname: pihole
memory: 4096
net0: name=eth0,bridge=vmbr0,firewall=1,gw=192.168.1.1,hwaddr=DE:A1:BE:F6:7A:51,ip=192.168.1.2/24,type=veth
onboot: 1
ostype: debian
rootfs: local-lvm:vm-101-disk-0,size=30G
swap: 512
unprivileged: 1
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!