Festplatte Voll?

dima1002

Member
May 23, 2021
45
0
11
52
Hallo,

was läuft hier falsch?
data01 ist anscheinend zu 100% voll?

Code:
root@PVE01:/# df -h

Filesystem            Size  Used Avail Use% Mounted on
udev                   32G     0   32G   0% /dev
tmpfs                 6.3G  2.7M  6.3G   1% /run
rpool/ROOT/pve-1      859G   19G  840G   3% /
tmpfs                  32G   37M   32G   1% /dev/shm
tmpfs                 5.0M  4.0K  5.0M   1% /run/lock
data01               327G  325G  2.0G 100% /data01
rpool                 840G  128K  840G   1% /rpool
data01/PMConf        2.0G  4.8M  2.0G   1% /data01/PMConf
rpool/pveconf         840G  5.3M  840G   1% /rpool/pveconf
rpool/ROOT            840G  128K  840G   1% /rpool/ROOT
rpool/data            840G  128K  840G   1% /rpool/data
/dev/fuse             128M   20K  128M   1% /etc/pve
192.168.10.5:/backup  3.5T  3.1T  423G  89% /mnt/pve/backup
tmpfs                 6.3G     0  6.3G   0% /run/user/0


Code:
IO Statistic

              capacity     operations     bandwidth

pool        alloc   free   read  write   read  write
----------  -----  -----  -----  -----  -----  -----
rpool       20.7G   867G      0     23  11.4K   308K
data01      922G   854G    152     83  5.67M  2.46M
----------  -----  -----  -----  -----  -----  -----


Code:
Zpool IO Statistik

                                                         capacity     operations     bandwidth

pool                                                   alloc   free   read  write   read  write
-----------------------------------------------------  -----  -----  -----  -----  -----  -----

rpool                                                  20.7G   867G      0     23  11.4K   308K
  ata-SAMSUNG_MA7LH480HFAQ-00005_S45PNC0R781981-part3  10.4G   434G      0     11  5.74K   154K
  ata-SAMSUNG_MZ7LH480HAHQ-00005_S45PNC0R782984-part3  10.3G   434G      0     11  5.65K   154K

-----------------------------------------------------  -----  -----  -----  -----  -----  -----

data01                                                 922G   854G    152     83  5.67M  2.46M
  mirror-0                                              922G   854G    152     83  5.67M  2.46M
    ata-SAMSUNG_MZ7L31T9HBLT-00A07_S6ESNE0R105094          -      -     76     41  2.84M  1.23M
    ata-SAMSUNG_MZ7L31T9HBLT-00A07_S6ESNE0R304625          -      -     76     42  2.84M  1.23M
-----------------------------------------------------  -----  -----  -----  -----  -----  -----

Code:
ZFS Übersicht
NAME                   AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
rpool                   840G  20.7G       64K    104K             0B      20.7G
rpool/ROOT              840G  20.5G        0B     96K             0B      20.5G
rpool/ROOT/pve-1        840G  20.5G     1.93G   18.6G             0B         0B
rpool/data              840G    96K        0B     96K             0B         0B
rpool/pveconf           840G  6.45M     1.25M   5.20M             0B         0B
data01                 1.92G  1.68T       72K    325G             0B      1.36T
data01/PMConf         1.92G  37.2M     32.5M   4.69M             0B         0B
data01/vm-100-disk-0   474G   901G     93.6G    336G           472G         0B
data01/vm-101-disk-0   136G   218G     27.6G   55.9G           134G         0B
data01/vm-102-disk-0  1.92G  3.29M      216K    156K          2.93M         0B
data01/vm-102-disk-1   193G   275G     42.1G   41.5G           191G         0B
data01/vm-102-disk-2  1.92G  6.20M      204K     68K          5.93M         0B
 
Last edited:
Hallo,

was läuft hier falsch?
Hi, anscheinend läuft hier was mit df falsch.
Ich habe das Phänomen anders herum:
Code:
root@srv1:~# zpool list
NAME        SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
Test        444G  9.51G   434G        -         -     0%     2%  1.00x    ONLINE  -
ZFS_4_LHR  1.36T   675G   717G        -         -    12%    48%  1.00x    ONLINE  -
root@srv1:~# df -h
Filesystem            Size  Used Avail Use% Mounted on
udev                   32G     0   32G   0% /dev
tmpfs                 6.3G  2.5M  6.3G   1% /run
/dev/mapper/pve-root   59G   23G   33G  41% /
tmpfs                  32G   63M   32G   1% /dev/shm
tmpfs                 5.0M  4.0K  5.0M   1% /run/lock
Test                  421G  128K  421G   1% /Test
ZFS_4_LHR             543G  128K  543G   1% /ZFS_4_LHR
/dev/fuse             128M   48K  128M   1% /etc/pve
tmpfs                  32G   28K   32G   1% /var/lib/ceph/osd/ceph-0
tmpfs                  32G   28K   32G   1% /var/lib/ceph/osd/ceph-1
tmpfs                  32G   28K   32G   1% /var/lib/ceph/osd/ceph-4
192.168.178.210:/iso  917G   40G  841G   5% /mnt/pve/ISO
tmpfs                 6.3G     0  6.3G   0% /run/user/0
Die Anzeige von zpool list passt mit der GUI und den VMs, nur df spuckt komische Sachen aus.
 
P.S. wenn du GUI und CLI vergleichst, in der GUI sind die Angaben in GB und in der CLI GiB. ;)
 
Normalerweise vertraue ich der GUI und die passt ja. Ich denke man vergleicht eher selten die Ausgabe von df mit der GUI, daher fällt das bestimmt nicht so schnell auf.
 
das Problem müssten doch viele haben? oder wie kontrolliert ihr euren Speicher?
Ich hab hier Zabbix als Monitoring-Tool laufen und da gucke ich täglich rein, ob noch alles ok ist. Und wenn ich mal nicht reingucke, dann meldet sich Zabbix bei mir über E-Mail/Signal, wenn was wichtiges anliegt, was ich mir besser angucken sollte.
 
Ich hab hier Zabbix als Monitoring-Tool laufen und da gucke ich täglich rein, ob noch alles ok ist. Und wenn ich mal nicht reingucke, dann meldet sich Zabbix bei mir über E-Mail/Signal, wenn was wichtiges anliegt, was ich mir besser angucken sollte.
Dann bekommst du ja auch nicht mit, wenn df plötzlich falsche Werte anzeigt. Ist mir auch nur aufgefallen als ich bei mir mal geguckt haben durch diesen Thread.
 
ALso ich habe auf jedem System mit ZFS laut df eine Usage von 128k. Meine Server haben aber alle den 6.2 Kernel.
Die Angaben von zpool list passt zur GUI.
Bei meinem PBS funktioniert df aber korrekt trotz gleichem 6.2-6 Kernel.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!