Storage Füllgrad Anzeige nicht einheitlich beziehungsweise logisch.

Joergpc

New Member
Mar 7, 2025
3
0
1
Hallo ich bin gerade dabei von ESXi auf Proxmox 9.0 umzustellen und frage mich gerade
warum ein ZFS mit Kompressen, 2 verschiedene Ansichten und Belegungen hat.

GUI und SSH anzeige sind identisch:

Storage 'local-zfs-001' on node 'vms-ipn-001' -> rpool/data

local-zfs-001 -> 60.80% (107.60 GB of 176.98 GB)

Storage 'local-zfs-002' on node 'vms-ipn-001' -> local-ssd-001
'local-zfs-002' -> 15.13% (279.52 GB of 1.85 TB)

hier die logischere Belegung:

rpool Size 197.57 GB | Free 179.79 GB | Allocated 17.77 GB

local-ssd-001 Size 1.91 TB | Free 1.82 TB | Allocated 84.81 GB

vielleicht habe ich ja einen Konfigurationsfehler und würde gerne wissen wo man das vereinheitlicht.

Vielen Dank im Voraus für eure Unterstützung

Jörg
 
Last edited:
local-ssd-001 Size 1.91 TB | Free 1.82 TB | Allocated 84.81 TB

Ich empfehle, solche Dinge auf der Kommandozeile abzufragen und dann inklusive dem Befehl (und in [code]-Tags gekapselt) zu posten. Ich kann deinen Post nämlich nur schwer interpretieren. Und Tippfleher sind manchmal nur schwer zu erkennen und verwirren...

Nur zur Anschauung, mein ZFS Pool "ds0":
Code:
~# grep -A 5 " ds0"  /etc/pve/storage.cfg 
zfspool: ds0
        pool ds0
        content images,rootdir
        mountpoint /ds0
        nodes abc,def
        sparse 1

~# pvesm status --storage ds0  # siehe auch man pvesm
Name       Type     Status           Total            Used       Available        %
ds0     zfspool     active      1804599296       399873532      1404725764   22.16%

~# zfs list -o space ds0  # siehe auch man zfs-list
NAME  AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
ds0   1.31T   381G        0B     96K             0B       381G

((
Nebenbei: mein Beispiel zeigt keine gute Storage-Definition, sondern eher ein schlechtes Beispiel. Ein separates (Unter-) Dataset "ds0/data" wäre besser gewesen. Hysterisch historisch gewachsen... ;-)
))
 
Hallo Udo, danke für dein drüberschauen, hier die aufbereitete ZFS und zpool Ausgabe.

Code:
pvesm status --storage local-zfs-001
Name                 Type     Status           Total            Used       Available        %
local-zfs-001     zfspool     active       172826004       105073784        67752220   60.80%

pvesm status --storage local-zfs-002
Name                 Type     Status           Total            Used       Available        %
local-zfs-002     zfspool     active      1804599296       272969496      1531629800   15.13%



grep -A 5 " local-zfs-001"  /etc/pve/storage.cfg
zfspool: local-zfs-001
        pool rpool/data
        blocksize 128k
        content rootdir,images
        mountpoint /rpool/data
        sparse 0


grep -A 5 " local-zfs-002"  /etc/pve/storage.cfg
zfspool: local-zfs-002
        pool local-ssd-001
        blocksize 256k
        content images,rootdir
        mountpoint /local-ssd-001
        sparse 0

zfs list -o space rpool/data
NAME        AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
rpool/data  64.6G   100G        0B    120K             0B       100G

zfs list -o space local-ssd-001
NAME           AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
local-ssd-001  1.43T   260G        0B    120K             0B       260G
 
zpool list
NAME            SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
local-ssd-001  1.73T  79.0G  1.66T        -         -     4%     4%  1.00x    ONLINE  -
rpool           184G  16.6G   167G        -         -    18%     8%  1.00x    ONLINE  -