Storage Füllgrad Anzeige nicht einheitlich beziehungsweise logisch.

Joergpc

New Member
Mar 7, 2025
3
2
3
Hallo ich bin gerade dabei von ESXi auf Proxmox 9.0 umzustellen und frage mich gerade
warum ein ZFS mit Kompressen, 2 verschiedene Ansichten und Belegungen hat.

GUI und SSH anzeige sind identisch:

Storage 'local-zfs-001' on node 'vms-ipn-001' -> rpool/data

local-zfs-001 -> 60.80% (107.60 GB of 176.98 GB)

Storage 'local-zfs-002' on node 'vms-ipn-001' -> local-ssd-001
'local-zfs-002' -> 15.13% (279.52 GB of 1.85 TB)

hier die logischere Belegung:

rpool Size 197.57 GB | Free 179.79 GB | Allocated 17.77 GB

local-ssd-001 Size 1.91 TB | Free 1.82 TB | Allocated 84.81 GB

vielleicht habe ich ja einen Konfigurationsfehler und würde gerne wissen wo man das vereinheitlicht.

Vielen Dank im Voraus für eure Unterstützung

Jörg
 
Last edited:
local-ssd-001 Size 1.91 TB | Free 1.82 TB | Allocated 84.81 TB

Ich empfehle, solche Dinge auf der Kommandozeile abzufragen und dann inklusive dem Befehl (und in [code]-Tags gekapselt) zu posten. Ich kann deinen Post nämlich nur schwer interpretieren. Und Tippfleher sind manchmal nur schwer zu erkennen und verwirren...

Nur zur Anschauung, mein ZFS Pool "ds0":
Code:
~# grep -A 5 " ds0"  /etc/pve/storage.cfg 
zfspool: ds0
        pool ds0
        content images,rootdir
        mountpoint /ds0
        nodes abc,def
        sparse 1

~# pvesm status --storage ds0  # siehe auch man pvesm
Name       Type     Status           Total            Used       Available        %
ds0     zfspool     active      1804599296       399873532      1404725764   22.16%

~# zfs list -o space ds0  # siehe auch man zfs-list
NAME  AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
ds0   1.31T   381G        0B     96K             0B       381G

((
Nebenbei: mein Beispiel zeigt keine gute Storage-Definition, sondern eher ein schlechtes Beispiel. Ein separates (Unter-) Dataset "ds0/data" wäre besser gewesen. Hysterisch historisch gewachsen... ;-)
))
 
Hallo Udo, danke für dein drüberschauen, hier die aufbereitete ZFS und zpool Ausgabe.

Code:
pvesm status --storage local-zfs-001
Name                 Type     Status           Total            Used       Available        %
local-zfs-001     zfspool     active       172826004       105073784        67752220   60.80%

pvesm status --storage local-zfs-002
Name                 Type     Status           Total            Used       Available        %
local-zfs-002     zfspool     active      1804599296       272969496      1531629800   15.13%



grep -A 5 " local-zfs-001"  /etc/pve/storage.cfg
zfspool: local-zfs-001
        pool rpool/data
        blocksize 128k
        content rootdir,images
        mountpoint /rpool/data
        sparse 0


grep -A 5 " local-zfs-002"  /etc/pve/storage.cfg
zfspool: local-zfs-002
        pool local-ssd-001
        blocksize 256k
        content images,rootdir
        mountpoint /local-ssd-001
        sparse 0

zfs list -o space rpool/data
NAME        AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
rpool/data  64.6G   100G        0B    120K             0B       100G

zfs list -o space local-ssd-001
NAME           AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
local-ssd-001  1.43T   260G        0B    120K             0B       260G
 
zpool list
NAME            SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
local-ssd-001  1.73T  79.0G  1.66T        -         -     4%     4%  1.00x    ONLINE  -
rpool           184G  16.6G   167G        -         -    18%     8%  1.00x    ONLINE  -
 
Okay, danke für den lesbaren Output.

Eigentlich sieht alles korrekt aus. Allerdings fällt mir "sparse 0" auf. Damit wird bei dir nicht lediglich der benötigte Platz für virtuelle Festplatten belegt, sondern sofort der deklarierte. Die physischen Storages sind also ruckzuck voll, enthalten aber nur leeren Raum - ein "over-commitment" ist damit ausgeschlossen. ("refreservation" wir auf den konfigurierten Wert gesetzt, normalerweise ist der schlicht Null/"none".)

Ändern kann man das via "Datacenter --> Storage --> <storage> --> Edit --> General --> [x] Thin provision". Das wirkt aber nur für neu angelegte Disks. Man muss das natürlich nicht machen, aber ich will das definitiv. Nachteil: die Platten können überlaufen - man muss den Füllstand also beobachten.


Zurück zum ersten Post: soweit ich das sehe, kann man die Präsentation im WebGUI nicht großartig beeinflussen. Wenn dir das wichtig erscheint, könntest du einen "Feature Request" in https://bugzilla.proxmox.com/ erstellen. Das erhöht die Chancen auf eine bewusste Wahrnehmung durch die Entwickler.


Ebenfalls zu Verwirrung führt regelmäßig der Unterschied von Angaben zum POOL und zum DATASET. Vergleiche: "zpool get all rpool" und "zfs get all rpool" - beides hat den identischen Namen "rpool", beschreibt aber drastisch unterschiedliche Dinge.
 
Super Danke
Datacenter --> Storage --> <storage> --> Edit --> General --> [x] Thin provision

das war der haken der gefehlt hat, jetzt sieht man nach der Kompressen was noch an GB frei sind.
Code:
zfs list -o space local-ssd-001
NAME           AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
local-ssd-001  1.60T  80.5G        0B    120K             0B      80.5G

zpool list
NAME            SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
local-ssd-001  1.73T  80.5G  1.66T        -         -     5%     4%  1.00x    ONLINE  -
 
Last edited:
  • Like
Reactions: Johannes S and UdoB