zfs fehler ?

jms1000

Well-Known Member
Oct 25, 2016
150
4
58
59
Germany, Schkeuditz
www.sv-forensik.de
Hallo,

hier scheint irgendwas wohl nicht zu stimmen: der proxmox meint:

could not activate storage 'zfs-local', zfs error: use the form 'zpool import <pool | id> <newpool>' to give it a new name

Ich kann jedoch auf den zfs-local storage zugreifen, images ablegen, backup machen usw... Eingebunden ist das local ZFS mit ID "zfs-local", zfs-pool ist "rpool/data" und das ganze nur local.

Auf der Shell sieht es gut aus:

root@xxx:~# zpool status
pool: rpool
state: ONLINE
scan: none requested
config:

NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sda2 ONLINE 0 0 0
sdb2 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
sdc ONLINE 0 0 0
sdd ONLINE 0 0 0

errors: No known data errors

root@xxx:~# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
rpool 1.81T 7.92G 1.80T - 1% 0% 1.00x ONLINE -

Wo ist der Fehler?

MfG.Jörg
 
bitte 'pveversion -v' output und inhalt von /etc/pve/storage.cfg posten.
 
storage.conf:

dir: data-back
path /mnt/data-back
content backup
maxfiles 7
nodes prx4,prx1,prx2
shared 0

dir: dataraid
path /mnt/data-raid
content backup,rootdir,images
maxfiles 7
shared 1

zfspool: zfs-local
pool rpool/data
content images,rootdir
nodes prx2,prx4,prx1,prx3
sparse 0

dir: local
disable
path /var/lib/vz
content iso,images,vztmpl,rootdir
maxfiles 0
shared 0

und pveversion -v

proxmox-ve: 5.0-19 (running kernel: 4.10.17-2-pve)
pve-manager: 5.0-30 (running version: 5.0-30/5ab26bc)
pve-kernel-4.10.17-2-pve: 4.10.17-19
libpve-http-server-perl: 2.0-6
lvm2: 2.02.168-pve3
corosync: 2.4.2-pve3
libqb0: 1.0.1-1
pve-cluster: 5.0-12
qemu-server: 5.0-15
pve-firmware: 2.0-2
libpve-common-perl: 5.0-16
libpve-guest-common-perl: 2.0-11
libpve-access-control: 5.0-6
libpve-storage-perl: 5.0-14
pve-libspice-server1: 0.12.8-3
vncterm: 1.5-2
pve-docs: 5.0-9
pve-qemu-kvm: 2.9.0-3
pve-container: 2.0-15
pve-firewall: 3.0-2
pve-ha-manager: 2.0-2
ksm-control-daemon: 1.2-2
glusterfs-client: 3.8.8-1
lxc-pve: 2.0.8-3
lxcfs: 2.0.7-pve4
criu: 2.11.1-1~bpo90
novnc-pve: 0.6-4
smartmontools: 6.5+svn4324-1
zfsutils-linux: 0.6.5.9-pve16~bpo90
 
und 'pvesm status' ?
 
Ein ZFS filesystem (dataset, subvolume) - siehe "man ZFS". Nur 'rpool' würde gehen, ist aber aus anderen gründen nicht zu empfehlen.

# zfs list

zeigt all datasets.
 
ja, schon klar. die frage was genau möchte proxmox da jetzt haben ? datasets gibt es ja viele ... :

NAME USED AVAIL REFER MOUNTPOINT
rpool 169G 1.59T 96K /rpool
rpool/ROOT 1.58G 1.59T 96K /rpool/ROOT
rpool/ROOT/pve-1 1.58G 1.59T 1.58G /
rpool/data 159G 1.59T 96K /rpool/data
rpool/data/subvol-20112-disk-1 146G 129G 109G /rpool/data/subvol-20112-disk-1
rpool/data/subvol-30115-disk-1 12.8G 19.2G 12.8G /rpool/data/subvol-30115-disk-1
rpool/swap 8.50G 1.59T 6.45G -
 
Ja, '/rpool/data' gibts eh - das kann also nicht der Fehler sein.

Aber 'pvesm status' zeigt ja dass alles funktioniert. Woher kommt also die obige Fehlermeldung?
 
Die Meldung taucht im syslog auf. und ja, scheint als funktioniert alles.

dann ist die ursache vermutlich einfach ein doppeltes, parallel ausgeführtes 'activate storage'. es wird erst überprüft, ob der pool zum dataset vorhanden ist, ansonsten wird der pool importiert. mit bisschen pech passiert erst der check parallel und schlägt für beide aufrufer fehl, und dann passiert der import parallel (und der der zu spät dran ist kriegt die fehlermeldung).
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!