CEPH meldet mon n3-pve-cluster is low on available space

Leon Gaultier

Active Member
Mar 14, 2019
564
58
28
42
Ich bekomme seit kurzem auf einer Node die Meldung
Code:
mon n3-pve-cluster is low on available space

mon.n3-pve-cluster has 30% avail
Was genau bedeutet das? Ich habe laut meinen Kenntnisstand eigentlich noch genug Platz auf meinem Pools.


Code:
proxmox-ve: 5.4-2 (running kernel: 4.15.18-18-pve) pve-manager: 5.4-11 (running version: 5.4-11/6df3d8d0) pve-kernel-4.15: 5.4-6 pve-kernel-4.15.18-18-pve: 4.15.18-44 pve-kernel-4.15.18-17-pve: 4.15.18-43 pve-kernel-4.15.18-16-pve: 4.15.18-41 pve-kernel-4.15.18-15-pve: 4.15.18-40 pve-kernel-4.15.18-14-pve: 4.15.18-39 pve-kernel-4.15.18-12-pve: 4.15.18-36 pve-kernel-4.15.18-11-pve: 4.15.18-34 pve-kernel-4.15.18-10-pve: 4.15.18-32 pve-kernel-4.15.18-9-pve: 4.15.18-30 pve-kernel-4.15.18-5-pve: 4.15.18-24 pve-kernel-4.15.18-4-pve: 4.15.18-23 pve-kernel-4.15.18-1-pve: 4.15.18-19 pve-kernel-4.15.17-3-pve: 4.15.17-14 pve-kernel-4.15.17-2-pve: 4.15.17-10 pve-kernel-4.15.17-1-pve: 4.15.17-9 ceph: 12.2.12-pve1 corosync: 2.4.4-pve1 criu: 2.11.1-1~bpo90 glusterfs-client: 3.8.8-1 ksm-control-daemon: 1.2-2 libjs-extjs: 6.0.1-2 libpve-access-control: 5.1-12 libpve-apiclient-perl: 2.0-5 libpve-common-perl: 5.0-53 libpve-guest-common-perl: 2.0-20 libpve-http-server-perl: 2.0-14 libpve-storage-perl: 5.0-44 libqb0: 1.0.3-1~bpo9 lvm2: 2.02.168-pve6 lxc-pve: 3.1.0-3 lxcfs: 3.0.3-pve1 novnc-pve: 1.0.0-3 proxmox-widget-toolkit: 1.0-28 pve-cluster: 5.0-37 pve-container: 2.0-39 pve-docs: 5.4-2 pve-edk2-firmware: 1.20190312-1 pve-firewall: 3.0-22 pve-firmware: 2.0-6 pve-ha-manager: 2.0-9 pve-i18n: 1.1-4 pve-libspice-server1: 0.14.1-2 pve-qemu-kvm: 3.0.1-4 pve-xtermjs: 3.12.0-1 qemu-server: 5.0-54 smartmontools: 6.5+svn4324-1 spiceterm: 3.0-5 vncterm: 1.5-3 zfsutils-linux: 0.7.13-pve1~bpo2
Code:
ID  CLASS WEIGHT  REWEIGHT SIZE    USE     AVAIL  %USE  VAR  PGS TYPE NAME               
-1       1.01738        - 1.02TiB  350GiB 692GiB 33.57 1.00   - root default            
-3       0.18590        -  190GiB 71.6GiB 119GiB 37.62 1.12   -     host n1-pve-cluster 
 0   ssd 0.18590  1.00000  190GiB 71.6GiB 119GiB 37.62 1.12 191         osd.0           
-5       0.21519        -  220GiB 73.2GiB 147GiB 33.24 0.99   -     host n2-pve-cluster 
 1   ssd 0.21519  1.00000  220GiB 73.2GiB 147GiB 33.24 0.99 200         osd.1           
-7       0.21519        -  220GiB 66.9GiB 153GiB 30.35 0.90   -     host n3-pve-cluster 
 2   ssd 0.21519  1.00000  220GiB 66.9GiB 153GiB 30.35 0.90 193         osd.2           
-9       0.21519        -  220GiB 77.7GiB 143GiB 35.26 1.05   -     host n4-pve-cluster 
 3   ssd 0.21519  1.00000  220GiB 77.7GiB 143GiB 35.26 1.05 207         osd.3           
-11       0.18590        -  190GiB 60.3GiB 130GiB 31.66 0.94   -     host n5-pve-cluster 
 4   ssd 0.18590  1.00000  190GiB 60.3GiB 130GiB 31.66 0.94 169         osd.4           
                    TOTAL 1.02TiB  350GiB 692GiB 33.57                                  
MIN/MAX VAR: 0.90/1.12  STDDEV: 2.58
Code:
pveversion  
pve-manager/5.4-11/6df3d8d0 (running kernel: 4.15.18-18-pve)
 

tom

Proxmox Staff Member
Staff member
Aug 29, 2006
14,282
535
133
Soweit ich das sehe, hat die root partition (wo der Ceph monitor) läuft hat nur noch 30 % frei. Die root partition ist eher insgesamt sehr knapp bemessen für ein HCI setup.
(/dev/mapper/pve-root 9.6G 6.3G 2.9G 69% / )
 

Leon Gaultier

Active Member
Mar 14, 2019
564
58
28
42
Ja das ist richtig. Ich habe mich da etwas knapp gehalten.

Dann werde ich einmal versuchen da etwas Platz zu schaffen. Vielen Dank für die schnelle Antwort.



Grüße
 

Leon Gaultier

Active Member
Mar 14, 2019
564
58
28
42
Ich habe das root nun vergrößert. Da Proxmox hauptsächlich im Businessbereich eingesetzt wird, spare ich mir eine genaue Anleitung. Entweder verfügt der Admin über das KnowHow oder kauft es sich ein.
Wer Privat das selbe Problem hat kann sich hier melden.

In meinem Fall:
  • /dev/sda3 ist eine LVM Partition
  • diese enthält die Volume Group pve
  • mit 2 logischen Volumes als swap und root
  • das lv swap habe ich verkleinert und
  • den frei gewordenen Platz dem lv root zugeordnet
Das war es schon.

Vielen Dank Tom für Deine schnelle Analyse.



Grüße
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE and Proxmox Mail Gateway. We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!