Hallo Leute,
seit gestern zeigt mir mein Proxmox-Server (Vers. 6.2) "no space left". df -h zeigt root (/) zu 100% ausgelastet. Ich kann nicht auf das Proxmox-Administrationsfenster (8006). Per ssh komme ich auf den Server. Alle Versuche, was zu löschen um Platz zu schaffen, schlugen fehl (wegeb CoW ?).
Ich habe auc ein Autu-snapshot-Skript lauen. Die VM's 182 und 184 können weg, ebenso wie die komplette VM-201.
Was kann ich tun?
Mit Hoffnung auf konkrete Hilfe verbleibe ich mit freundlichen Grüßen aus Ostfriesland ...
Telekomiker
seit gestern zeigt mir mein Proxmox-Server (Vers. 6.2) "no space left". df -h zeigt root (/) zu 100% ausgelastet. Ich kann nicht auf das Proxmox-Administrationsfenster (8006). Per ssh komme ich auf den Server. Alle Versuche, was zu löschen um Platz zu schaffen, schlugen fehl (wegeb CoW ?).
Code:
zpool status rpool
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 0 days 00:19:27 with 0 errors on Sun Nov 8 00:43:28 2020
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
nvme-nvme.126f-46373432373730303138-5453353132474d544531313053-00000001-part3 ONLINE 0 0 0
nvme-nvme.126f-46393432343430303031-5453353132474d544531313053-00000001-part3 ONLINE 0 0 0
errors: No known data errors
Code:
zfs get all
NAME PROPERTY VALUE SOURCE
rpool size 476G -
rpool capacity 96% -
rpool altroot - default
rpool health ONLINE -
rpool guid 11037289155792597181 -
rpool version - default
rpool bootfs rpool/ROOT/pve-1 local
rpool delegation on default
rpool autoreplace off default
rpool cachefile - default
rpool failmode wait default
rpool listsnapshots off default
rpool autoexpand off default
rpool dedupditto 0 default
rpool dedupratio 1.00x -
rpool free 14.9G -
rpool allocated 461G -
.
.
.
Code:
zfs list -t volume
NAME USED AVAIL REFER MOUNTPOINT
rpool/data/base-130-disk-0 9.32G 0B 9.32G -
rpool/data/base-140-disk-0 14.9G 0B 14.9G -
rpool/data/vm-100-disk-0 3.92G 0B 3.62G -
rpool/data/vm-100-state-Snap2 1.22G 0B 1.22G -
rpool/data/vm-120-disk-0 27.9G 0B 27.9G -
rpool/data/vm-120-disk-1 33.0G 0B 27.9G -
rpool/data/vm-131-disk-0 12.6G 0B 10.5G -
rpool/data/vm-131-state-Snap01 1.03G 0B 1.03G -
rpool/data/vm-132-disk-0 10.4G 0B 10.4G -
rpool/data/vm-141-disk-0 21.4G 0B 15.0G -
rpool/data/vm-142-disk-0 39.0G 0B 15.1G -
rpool/data/vm-142-disk-1 37.4G 0B 29.6G -
rpool/data/vm-143-disk-0 15.0G 0B 15.0G -
rpool/data/vm-150-disk-0 7.31G 0B 7.31G -
rpool/data/vm-160-disk-0 10.3G 0B 10.1G -
rpool/data/vm-171-disk-0 156G 0B 71.4G -
rpool/data/vm-181-disk-0 31.8G 0B 13.9G -
rpool/data/vm-182-disk-0 6.10G 0B 6.10G -
rpool/data/vm-183-disk-0 56K 0B 56K -
rpool/data/vm-184-disk-0 2.37G 0B 2.37G -
rpool/data/vm-201-disk-0 3.69G 0B 3.69G -
rpool/data/vm-201-disk-1 3.65G 0B 3.65G -
rpool/data/vm-201-disk-2 3.11M 0B 3.07M -
rpool/data/vm-201-disk-3 3.11M 0B 3.07M -
rpool/data/vm-201-disk-4 3.13M 0B 3.09M -
rpool/data/vm-201-disk-5 3.11M 0B 3.06M -
rpool/data/vm-998-disk-0 56K 0B 56K -
rpool/data/vm-999-disk-0 3.92G 0B 3.88G -
root@pve1:/rpool/.zfs/snapshot#
Ich habe auc ein Autu-snapshot-Skript lauen. Die VM's 182 und 184 können weg, ebenso wie die komplette VM-201.
Was kann ich tun?
Mit Hoffnung auf konkrete Hilfe verbleibe ich mit freundlichen Grüßen aus Ostfriesland ...
Telekomiker