Ceph pool Usage in Proxmox Gui anders als "ceph df"?

fips

Renowned Member
May 5, 2014
175
9
83
Hallo Leute,

wieso ist die Ausgabe im Proxmox Web Gui unter Ceph -> Pools eine andere als wenn man am Host direkt "ceph df" aufruft?

Im Gui stehen beim zB ceph-vm pool: Used: 40% von Total 1,31TB
Über die Shell bei "ceph df" steht bei ceph-vm: Used 61% von Total 846GB

ceph-vm ist ein 3/2 mit pg_num 1024
Config wie im How to.
 
Welche PVE und Ceph version hast du im Einsatz?
 
Was sagt den 'ceph df detail'?
 
Hallo,

ich habe das gleiche Problem... die Anzeige unter Proxmox spuckt mir die falschen Werte raus:
Auslastung 38.54% (63.20 TiB von 164.00 TiB)

Aber mit "ceph df detail" sieht das Volume so aus:
Code:
GLOBAL:
    SIZE     AVAIL     RAW USED     %RAW USED     OBJECTS
    164T      103T       62350G         36.95       6757k
POOLS:
    NAME                                   ID     QUOTA OBJECTS     QUOTA BYTES     USED       %USED     MAX AVAIL     OBJECTS     DIRTY     READ       WRITE      RAW USED
    ...
    proxmox-ssd                            33     N/A               N/A                 19         0          175G           2         2       301k       195k           57

Sieht Proxmox nur den Global Wert aber nicht den für das eigentliche Volume?

Grüße

X
 
Last edited:
@Xyvran, was für eine PVE version läuft bei dir? Und kannst Du bitte zu besseren Lesbarkeit die Ausgabe mit [CODE ]...[/CODE] setzen? Danke.
 
Entschuldige... hab es korrigiert.

Aktuell sieht es bei mir so aus:
Code:
proxmox-ve: 5.1-25 (running kernel: 4.13.4-1-pve)
pve-manager: 5.1-36 (running version: 5.1-36/131401db)
pve-kernel-4.13.4-1-pve: 4.13.4-25
libpve-http-server-perl: 2.0-6
lvm2: 2.02.168-pve6
corosync: 2.4.2-pve3
libqb0: 1.0.1-1
pve-cluster: 5.0-15
qemu-server: 5.0-17
pve-firmware: 2.0-3
libpve-common-perl: 5.0-20
libpve-guest-common-perl: 2.0-13
libpve-access-control: 5.0-7
libpve-storage-perl: 5.0-16
pve-libspice-server1: 0.12.8-3
vncterm: 1.5-2
pve-docs: 5.1-12
pve-qemu-kvm: 2.9.1-2
pve-container: 2.0-17
pve-firewall: 3.0-3
pve-ha-manager: 2.0-3
ksm-control-daemon: 1.2-2
glusterfs-client: 3.8.8-1
lxc-pve: 2.1.0-2
lxcfs: 2.0.7-pve4
criu: 2.11.1-1~bpo90
novnc-pve: 0.6-4
smartmontools: 6.5+svn4324-1
zfsutils-linux: 0.7.2-pve1~bpo90

Und ceph Version:
Code:
ceph version 12.2.1 (1a629971a9bcaaae99e5539a3a43f800a297f267) luminous (stable)
 
Der Max und aktuelle Wert eines Pools wird unter der Storage Angabe nicht korrekt dargestellt. Es ist immer der Wert des ganzen Ceph Clusters, aber nicht des Pools angegeben-
 
Das behandeln wir gleich mit. ;)