no space left unter ZFS

Telekomiker

Active Member
Dec 2, 2012
35
2
28
Lower Saxony / Germany
Hallo Leute,

seit gestern zeigt mir mein Proxmox-Server (Vers. 6.2) "no space left". df -h zeigt root (/) zu 100% ausgelastet. Ich kann nicht auf das Proxmox-Administrationsfenster (8006). Per ssh komme ich auf den Server. Alle Versuche, was zu löschen um Platz zu schaffen, schlugen fehl (wegeb CoW ?).

Code:
zpool status rpool
  pool: rpool
 state: ONLINE
  scan: scrub repaired 0B in 0 days 00:19:27 with 0 errors on Sun Nov  8 00:43:28 2020
config:

    NAME                                                                               STATE     READ WRITE CKSUM
    rpool                                                                                ONLINE      0     0     0
      mirror-0                                                                         ONLINE      0     0     0
        nvme-nvme.126f-46373432373730303138-5453353132474d544531313053-00000001-part3  ONLINE       0     0     0
        nvme-nvme.126f-46393432343430303031-5453353132474d544531313053-00000001-part3  ONLINE       0     0     0

errors: No known data errors

Code:
zfs get all
NAME   PROPERTY             VALUE                                           SOURCE
rpool  size                           476G                                               -
rpool  capacity                   96%                                                 -
rpool  altroot                       -                                                     default
rpool  health                      ONLINE                                          -
rpool  guid                          11037289155792597181            -
rpool  version                      -                                                     default
rpool  bootfs                      rpool/ROOT/pve-1                       local
rpool  delegation               on                                                   default
rpool  autoreplace             off                                                  default
rpool  cachefile                   -                                                     default
rpool  failmode                  wait                                                default
rpool  listsnapshots          off                                                  default
rpool  autoexpand            off                                                  default
rpool  dedupditto              0                                                    default
rpool  dedupratio              1.00x                                             -
rpool  free                           14.9G                                            -
rpool  allocated                  461G                                             -
  .
  .
  .

Code:
zfs list -t volume
NAME                                           USED  AVAIL     REFER  MOUNTPOINT
rpool/data/base-130-disk-0      9.32G     0B      9.32G  -
rpool/data/base-140-disk-0      14.9G     0B      14.9G  -
rpool/data/vm-100-disk-0         3.92G     0B      3.62G  -
rpool/data/vm-100-state-Snap2   1.22G     0B     1.22G  -
rpool/data/vm-120-disk-0         27.9G     0B      27.9G  -
rpool/data/vm-120-disk-1         33.0G     0B      27.9G  -
rpool/data/vm-131-disk-0         12.6G     0B      10.5G  -
rpool/data/vm-131-state-Snap01  1.03G     0B     1.03G  -
rpool/data/vm-132-disk-0         10.4G     0B      10.4G  -
rpool/data/vm-141-disk-0         21.4G     0B      15.0G  -
rpool/data/vm-142-disk-0         39.0G     0B      15.1G  -
rpool/data/vm-142-disk-1         37.4G     0B      29.6G  -
rpool/data/vm-143-disk-0         15.0G     0B      15.0G  -
rpool/data/vm-150-disk-0         7.31G     0B      7.31G  -
rpool/data/vm-160-disk-0         10.3G     0B      10.1G  -
rpool/data/vm-171-disk-0         156G     0B       71.4G  -
rpool/data/vm-181-disk-0         31.8G     0B      13.9G  -
rpool/data/vm-182-disk-0         6.10G     0B      6.10G  -
rpool/data/vm-183-disk-0         56K        0B       56K  -
rpool/data/vm-184-disk-0         2.37G    0B       2.37G  -
rpool/data/vm-201-disk-0         3.69G     0B      3.69G  -
rpool/data/vm-201-disk-1         3.65G     0B      3.65G  -
rpool/data/vm-201-disk-2         3.11M     0B     3.07M  -
rpool/data/vm-201-disk-3         3.11M     0B     3.07M  -
rpool/data/vm-201-disk-4         3.13M     0B     3.09M  -
rpool/data/vm-201-disk-5         3.11M     0B     3.06M  -
rpool/data/vm-998-disk-0         56K     0B       56K  -
rpool/data/vm-999-disk-0         3.92G     0B     3.88G  -
root@pve1:/rpool/.zfs/snapshot#

Ich habe auc ein Autu-snapshot-Skript lauen. Die VM's 182 und 184 können weg, ebenso wie die komplette VM-201.

Was kann ich tun?

Mit Hoffnung auf konkrete Hilfe verbleibe ich mit freundlichen Grüßen aus Ostfriesland ...

Telekomiker
 

Dunuin

Famous Member
Jun 30, 2020
8,924
2,281
156
Germany
Lösch doch erst einmal ein paar alte unnötige Snapshots und seh dann weiter. Bei vm-171-disk-0 nehmen die Snapshots wohl 85GB weg, also mehr Platz, als das zvol selbst braucht.

Hast du überall in den VMs an TRIM und an discard in den Proxmox SCSI Controller Einstellungen gedacht?

Bei ZFS sollte man den Pool wegen CoW übrigens nicht über 80% füllen.
 
Last edited:
  • Like
Reactions: pablopol24

fireon

Famous Member
Oct 25, 2010
3,937
337
108
40
Austria/Graz
iteas.at
Hallo Dunuin,
besten Dank für den Hinweis auf vm-171. Da hast Du natürlich recht, und da ich ein Backup dieser VM habe, habe ich sie gelöscht und mein Problem damit beseitigt. Herzlichen Dank !

Telekomiker
Freut mich das es für dich gelöst ist. Bitte setzte deinen Thread doch auf gelöst :)
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!