Node mit ? versehen

vikozo

Renowned Member
May 4, 2014
781
30
93
suisse
www.wombat.ch
guten Morgen
ich habe ein Node der blockiert ist und ein (?) hat.
Wie es scheint ist eine Disk voll gelaufen.

über das Datacenter kann ich noch auf den Node zugreifen.
df oder du zeigt das
rpool/ROOT/pve-1 27G 25G 2.6G 91% /
fast voll ist wobei wenn ich in das Direktory reingehe ist es leer.

Code:
root@nas-04:/rpool/ROOT/pve-1# ls -alth
total 1.0K
drwxr-xr-x 2 root root 2 Oct 14 21:11 .
drwxr-xr-x 3 root root 3 Oct 14 21:11 ..

nach einem reboot, erscheint er im Datacenter zwar als Online aber ohne uptime Zeitangabe, auch die VMs sind mit einem ? versehen, aber die VM selber sind da. Als Beispiel habe ich PBS als VM und da lauft die GUI noch

Bei der Suche nach grossen Files bin ich auf
Code:
/etc/network# ls -alth
-rw-r--r--  1 root root 10G Oct 15 18:46 test

was ist das?

vielen Dank für feedbacks
gruss
vinc
 
@fireon
heute morgen 23.11. ist es wieder mit ? versehen

Code:
# zpool list
NAME     SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
raid10  5.44T  3.97T  1.47T        -         -    39%    72%  1.00x    ONLINE  -
rpool   2.72T  2.61T   107G        -         -    23%    96%  1.00x    ONLINE  -

und

Code:
# zfs list
NAME                       USED  AVAIL     REFER  MOUNTPOINT
raid10                    4.13T  1.13T     1.32T  /raid10
raid10/data                 96K  1.13T       96K  /raid10/data
raid10/vm-525-disk-0      15.5G  1.13T     15.1G  -
raid10/vm-525-disk-1      1.01T  1.15T     1011G  -
raid10/vm-525-disk-2       516G  1.14T      505G  -
raid10/vm-525-disk-4      1.26T  1.24T     1.16T  -
raid10/vm-525-disk-5      33.0G  1.16T       56K  -
rpool                     2.61T  20.3G      104K  /rpool
rpool/ROOT                6.47G  20.3G       96K  /rpool/ROOT
rpool/ROOT/pve-1          6.47G  20.3G     6.47G  /
rpool/data                2.60T  20.3G       96K  /rpool/data
rpool/data/vm-108-disk-0  2.00T  20.3G      559G  -
rpool/data/vm-162-disk-0  7.31G  20.3G     7.31G  -
rpool/data/vm-175-disk-0  16.1G  20.3G     8.97G  -
rpool/data/vm-177-disk-1  25.0G  20.3G     25.0G  -
rpool/data/vm-501-disk-0  3.90G  20.3G     3.90G  -
rpool/data/vm-501-disk-1  7.12M  20.3G     7.12M  -
rpool/data/vm-504-disk-0    56K  20.3G       56K  -
rpool/data/vm-504-disk-1    56K  20.3G       56K  -
rpool/data/vm-504-disk-2  4.16G  20.3G     4.16G  -
rpool/data/vm-504-disk-3   247G  20.3G      247G  -
rpool/data/vm-507-disk-0  3.69G  20.3G     3.69G  -
rpool/data/vm-507-disk-1   186G  20.3G      186G  -
rpool/data/vm-507-disk-2   100G  20.3G      100G  -
rpool/data/vm-507-disk-4  1.14G  20.3G     1.14G  -
rpool/data/vm-525-disk-0  15.7G  20.3G     15.7G  -
rpool/data/vm-742-disk-0  2.65G  20.3G     2.65G  -
 
Last edited:
Das könnte dein Problem sein:
Code:
rpool   2.72T  2.61T   107G        -         -    23%    96%  1.00x    ONLINE  -
Der gesamte Pool ist voll. ZFS darf man (sollte man) nur maximal 80% voll machen. Da bei weiterem Befüllen die Performance voll in die Knie geht und man zu I/O Aussetzer kommt. Sprich, Daten verschieben löschen, Pool vergrößern. Hatte mal nen Pool schon bei 90% das war nicht mehr brauchbar. Mit SSD's ist es schon besser. Aber bei HDDs ists dann ganz aus.
 
Ja, das Problem mit den Repication ich kann diese auf einen Node leiten aber nicht definieren in welchem Pool. Jedenfalls kann ich es nicht im GUI finden.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!