Hallo,
ich habe folgendes Problem mit meinem Proxmox-Hyperversor unter...
...mit 4x3TB-HDDs im Raid-Z2-Verbund. Eine VM, die für den Datencloud-Serverdienst "Seafile" nutze, belegt meinem Eindruck nach zu viel Platz. Hier die Hypervisor-Sicht:
Es geht um
Die VM benötigt also 4.91TB.
Auf Sicht ovn VM-101 ist der Speicherbedarf folgender:
Zum historischen Hintergrund: Die VM belegte durchaus mal so viel Platz wie angezeigt. Um bei Seafile Platz zu schaffen, muss ein sogenannter "Garbage Collector" gestartet werden, um nicht mehr genutzte Dateiblöcke zu löschen. Das habe ich neulich gemacht und dabei ca. 1TB Platz gewonnen, zumindest laut VM-Sicht.
Snapshots habe ich für die besagte VM keine.
Warum benötigt VM-101 immernoch 4.91TB?
ich habe folgendes Problem mit meinem Proxmox-Hyperversor unter...
Code:
# pveversion
pve-manager/5.4-13/aee6f0ec (running kernel: 4.15.18-24-pve)
#
...mit 4x3TB-HDDs im Raid-Z2-Verbund. Eine VM, die für den Datencloud-Serverdienst "Seafile" nutze, belegt meinem Eindruck nach zu viel Platz. Hier die Hypervisor-Sicht:
Code:
# df -h
Filesystem Size Used Avail Use% Mounted on
udev 7.6G 0 7.6G 0% /dev
tmpfs 1.6G 21M 1.5G 2% /run
rpool/ROOT/pve-1 44G 6.5G 37G 15% /
tmpfs 7.6G 34M 7.6G 1% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs 7.6G 0 7.6G 0% /sys/fs/cgroup
rpool 37G 128K 37G 1% /rpool
rpool/ROOT 37G 128K 37G 1% /rpool/ROOT
rpool/data 37G 128K 37G 1% /rpool/data
/dev/fuse 30M 48K 30M 1% /etc/pve
tmpfs 1.6G 0 1.6G 0% /run/user/1001
# zpool status
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 60h40m with 0 errors on Tue Jan 14 13:04:18 2020
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
wwn-0x50014ee0aeffd2a3-part2 ONLINE 0 0 0
wwn-0x50014ee20a994052-part2 ONLINE 0 0 0
wwn-0x50014ee2b8e68c1d-part2 ONLINE 0 0 0
wwn-0x50014ee2ba1acc4e-part2 ONLINE 0 0 0
errors: No known data errors
# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
rpool 10.9T 10.5T 424G - 45% 96% 1.00x ONLINE -
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
rpool 5.07T 37.0G 140K /rpool
rpool/ROOT 6.50G 37.0G 140K /rpool/ROOT
rpool/ROOT/pve-1 6.50G 37.0G 6.50G /
rpool/data 5.05T 37.0G 140K /rpool/data
rpool/data/vm-101-disk-1 18.9G 37.0G 18.9G -
rpool/data/vm-101-disk-2 4.91T 37.0G 4.91T -
rpool/data/vm-103-disk-1 8.03G 37.0G 8.03G -
rpool/data/vm-104-disk-1 9.47G 37.0G 9.47G -
rpool/data/vm-104-disk-2 65.6G 37.0G 65.6G -
rpool/data/vm-105-disk-1 5.45G 37.0G 5.45G -
rpool/data/vm-106-disk-0 6.45G 37.0G 6.45G -
rpool/data/vm-107-disk-0 8.40G 37.0G 8.40G -
rpool/data/vm-108-disk-0 8.52G 37.0G 8.52G -
rpool/data/vm-109-disk-0 7.13G 37.0G 7.13G -
rpool/data/vm-110-disk-1 6.20G 37.0G 6.20G -
rpool/swap 9.12G 37.0G 9.12G -
#
Es geht um
Code:
rpool/data/vm-101-disk-2 4.91T 37.0G 4.91T -
Die VM benötigt also 4.91TB.
Auf Sicht ovn VM-101 ist der Speicherbedarf folgender:
Code:
# df -h
Filesystem Size Used Avail Use% Mounted on
udev 991M 0 991M 0% /dev
tmpfs 201M 21M 180M 11% /run
/dev/mapper/vm--tmplt--deb9--vg-root 15G 6.1G 8.3G 43% /
tmpfs 1003M 0 1003M 0% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs 1003M 0 1003M 0% /sys/fs/cgroup
/dev/sda1 236M 63M 161M 29% /boot
tmpfs 201M 0 201M 0% /run/user/1004
/dev/mapper/datapartition 3.5T 2.1T 1.2T 64% /mnt/datapartition
#
Zum historischen Hintergrund: Die VM belegte durchaus mal so viel Platz wie angezeigt. Um bei Seafile Platz zu schaffen, muss ein sogenannter "Garbage Collector" gestartet werden, um nicht mehr genutzte Dateiblöcke zu löschen. Das habe ich neulich gemacht und dabei ca. 1TB Platz gewonnen, zumindest laut VM-Sicht.
Snapshots habe ich für die besagte VM keine.
Warum benötigt VM-101 immernoch 4.91TB?
Last edited: