[SOLVED] Probleme mit local-zfs im Cluster

xxxONURISxxx

Member
Feb 16, 2019
8
0
6
47
Hallo zusammen!

Ich habe zwei pve-Nodes (pve 5.3-9), welche ich erfolgreich zu einem Cluster vereinen konnte. Allerdings gibt es ein Problem mit dem Laufwerk local-zfs (Container und Disk-Images) des zweiten Nodes. Das Symbol wird mit einem Fragezeichen angezeigt und in der Übersicht als "nicht aktiv" ausgewiesen. Eigentlich soll man in dem Fall unter "Datacenter" -> "Storage" das Laufwerk explizit einem Node zuordnen. Das funktioniert aber bei mir irgendwie nicht richtig. Sobald ich es einem Node zugewiesen habe, verschwindet es bei dem anderen. Es wird mir in der Übersicht auch nur einmal angezeigt. Gibt es hier Probleme mit dem Namen? Beide heißen "rpool". Vor Bildung des Clusters liefen beide ohne Probleme.

Hab ich einen Denkfehler oder wo liegt das Problem? Benötigt ihr noch nähere Informationen zur Hardware?


Gruß
 
Last edited:
Hi,

wenn du auf beiden Nodes ZFS hast und die beiden den Rpool haben musst du eigentlich nicht extra einstellen.
Das restricten der Storages ist in diesen Fall nicht nötig.

Bitte schick mal den output von beiden nodes
zfs list

und von einer node
cat /etc/pve/storage.cfg
 
Hi ...

node1:
Code:
NAME                           USED  AVAIL  REFER  MOUNTPOINT
rpool                         64.2G   834G   139K  /rpool
rpool/ROOT                    7.45G   834G   128K  /rpool/ROOT
rpool/ROOT/pve-1              7.45G   834G  7.45G  /
rpool/data                    56.7G   834G   170K  /rpool/data
rpool/data/subvol-200-disk-0   636M  7.38G   636M  /rpool/data/subvol-200-disk-0
rpool/data/subvol-201-disk-0   891M  31.1G   891M  /rpool/data/subvol-201-disk-0
rpool/data/subvol-202-disk-0   738M  7.28G   738M  /rpool/data/subvol-202-disk-0
rpool/data/subvol-203-disk-0   457M  7.55G   457M  /rpool/data/subvol-203-disk-0
rpool/data/subvol-250-disk-0   587M  9.48G   537M  /rpool/data/subvol-250-disk-0
rpool/data/subvol-251-disk-0   732M  9.28G   732M  /rpool/data/subvol-251-disk-0
rpool/data/subvol-252-disk-0  1.97G  8.03G  1.97G  /rpool/data/subvol-252-disk-0
rpool/data/subvol-260-disk-0   825M  7.19G   825M  /rpool/data/subvol-260-disk-0
rpool/data/vm-100-disk-0      22.7G   834G  22.7G  -
rpool/data/vm-120-disk-0      25.7G   834G  25.7G  -
rpool/data/vm-150-disk-0      1.07G   834G  1.07G  -
rpool/data/vm-150-disk-2       460M   834G   460M  -

Code:
dir: local
    path /var/lib/vz
    content iso,backup,vztmpl

zfspool: local-zfs
    pool rpool/data
    content rootdir,images
    sparse 1

nfs: nfsbackup
    export /volume1/pvebackup
    path /mnt/pve/nfsbackup
    server 10.10.0.6
    content backup
    maxfiles 1
    options vers=3


node2:
Code:
no datasets available

Wenn ich den rpool an node2 binde, wird er am node1 mit ? angezeigt. Das Problem trat sofort nach dem Joyn des node2 zum Cluster auf.


Gruß
 
Du hast am node2 kein zfs.
Also ist es normal das es nicht funktioniert.
Ich nehmen an du hast am node 2 ein thin-lvm was eine andere Storage Definition braucht.
 
Hallo Wolfgang,

jetzt bin ich ziemlich verwirrt. Ich bin mit zu 99,9% sicher, dass ich auf dem zweiten node auch zfs installiert habe. Sagt das nicht auch schon der Name "local-zfs"? Wo kann ich denn sehen, ob ich ein thin-lvm auf node2 habe?

Wie kann ich hier Fotos hochladen oder verlinken?

Gruß
 
lsblk:
Code:
NAME                 MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                    8:0    0 931.5G  0 disk
├─sda1                 8:1    0     1M  0 part
├─sda2                 8:2    0   256M  0 part /boot/efi
└─sda3                 8:3    0 931.3G  0 part
  ├─pve-swap         253:0    0     8G  0 lvm  [SWAP]
  ├─pve-root         253:1    0    96G  0 lvm  /
  ├─pve-data_tmeta   253:2    0   8.1G  0 lvm
  │ └─pve-data-tpool 253:4    0   795G  0 lvm
  │   └─pve-data     253:5    0   795G  0 lvm
  └─pve-data_tdata   253:3    0   795G  0 lvm
    └─pve-data-tpool 253:4    0   795G  0 lvm
      └─pve-data     253:5    0   795G  0 lvm

lvs:
Code:
 LV   VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data pve twi-aotz-- 795.04g             0.00   0.04                          
  root pve -wi-ao----  96.00g                                                  
  swap pve -wi-ao----   8.00g


Hmmm ... anscheinend doch lvm. :eek: Ich hätte schwören können ... o_O

Edit: Jetzt habe ich es auch in der GUI gefunden ... lvm ... :mad: Manchmal sehe ich den Wald vor lauter Bäumen nicht!

Dann hat sich der Fall ja geklärt.
Vielen Dank Wolfgang! :)


Gruß
 
Ok ... jetzt weiß ich wieder, warum es doch nicht zfs war. Node2 ist bei mir ein Mac Mini von 2012. Leider bootet er nicht, wenn ich die FP mit zfs formatiert habe. Aus diesem Grund habe ich damals wohl doch ext4 genommen. Und ich war mir doch so sicher ...
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!