[SOLVED] Probleme mit zfs destroy bzw zpool destroy...

Dec 19, 2012
494
14
83
Hallo.
Ich habe zwei Server, auf denen Proxmox läuft. Beide nutzen ZFS und ich klone ein paar ZVOLs von Server A regelmäßig per CronJob auf Server B. Nun gab es eine Umstrukturierung (andere IP-Adressen usw), so dass ich die Scripte ändern musste.
Dabei ist ein Fehler aufgetreten, den ich mir nicht erklären kann:

Ich habe von Produktiv-Server A diesen Befehl losgelassen, um einen aktuellen Snapshot auf den Backup-Server B zu kopieren:
Code:
zfs send rpool/vm-199-disk-0@zfs-auto-snap_daily-2020-08-13-0425 |ssh pve-backup zfs recv -F zfs-pool/vm-199-disk-0
Das lief zwar durch, hat mir aber die Struktur zerschossen, die ich vorher auf Server B hatte.

Daraufhin wollte ich einfach nochmal von vorne anfangen und den ZPool löschen (das geht im Webinterface nicht, richtig?).
Die Befehle dazu reagieren nun allerdings seltsam:

Code:
zfs destroy zfs-pool
cannot destroy 'zfs-pool': dataset already exists

zpool destroy -f zfs-pool
cannot open 'zfs-pool': operation not applicable to datasets of this type

Wie kann ich den zfs-pool wieder loswerden? Seltsamerweise zeigt mir

Code:
zfs list -t all
NAME       USED  AVAIL  REFER  MOUNTPOINT
zfs-pool  1.01T   768G  16.2G  -
Im Webinterface steht allerdings
"Usage 57.27% (1.01 TiB of 1.76 TiB)".
Das sieht mir fast so aus, als wären die alten ZVOLs noch drauf -- werden aber nicht mehr gefunden.
Daher die Frage: Wie kann man das lösen?

Code:
pveversion -v
proxmox-ve: 5.4-2 (running kernel: 4.15.18-30-pve)
pve-manager: 5.4-15 (running version: 5.4-15/d0ec33c6)
pve-kernel-4.15: 5.4-19
pve-kernel-4.13: 5.2-2
pve-kernel-4.15.18-30-pve: 4.15.18-58
pve-kernel-4.15.18-20-pve: 4.15.18-46
pve-kernel-4.15.18-19-pve: 4.15.18-45
pve-kernel-4.15.18-17-pve: 4.15.18-43
pve-kernel-4.15.18-16-pve: 4.15.18-41
pve-kernel-4.15.18-15-pve: 4.15.18-40
pve-kernel-4.15.18-11-pve: 4.15.18-34
pve-kernel-4.15.18-10-pve: 4.15.18-32
pve-kernel-4.15.18-9-pve: 4.15.18-30
pve-kernel-4.15.18-8-pve: 4.15.18-28
pve-kernel-4.15.18-7-pve: 4.15.18-27
pve-kernel-4.13.16-4-pve: 4.13.16-51
corosync: 2.4.4-pve1
criu: 2.11.1-1~bpo90
glusterfs-client: 3.8.8-1
ksm-control-daemon: 1.2-2
libjs-extjs: 6.0.1-2
libpve-access-control: 5.1-12
libpve-apiclient-perl: 2.0-5
libpve-common-perl: 5.0-56
libpve-guest-common-perl: 2.0-20
libpve-http-server-perl: 2.0-14
libpve-storage-perl: 5.0-44
libqb0: 1.0.3-1~bpo9
lvm2: 2.02.168-pve6
lxc-pve: 3.1.0-7
lxcfs: 3.0.3-pve1
novnc-pve: 1.0.0-3
proxmox-widget-toolkit: 1.0-28
pve-cluster: 5.0-38
pve-container: 2.0-42
pve-docs: 5.4-2
pve-edk2-firmware: 1.20190312-1
pve-firewall: 3.0-22
pve-firmware: 2.0-7
pve-ha-manager: 2.0-9
pve-i18n: 1.1-4
pve-libspice-server1: 0.14.1-2
pve-qemu-kvm: 3.0.1-4
pve-xtermjs: 3.12.0-1
pve-zsync: 2.0-3~bpo5
qemu-server: 5.0-56
smartmontools: 6.5+svn4324-1
spiceterm: 3.0-5
vncterm: 1.5-3
zfsutils-linux: 0.7.13-pve1~bpo2
 
Last edited:
Hab's gelöst ... aber letztlich nur durch ein neues Aufsetzen des Pools.
Einzelschritte dazu:
Code:
zdb -e -d zfs-pool
zpool export zfs-pool

Dann auf allen Platten die Partitionen gelöscht
(evtl ist dieser Schritt überflüssig)
gdisk /dev/sdb ...
Und damit die Platte erneut in einen ZFS-Pool aufgenommen werden kann ganz am Ende:
wipefs --all --force /dev/sd...

Danach konnte ich den rpool im Webinterface neu erstellen ...

Ach ja -- ein dist-upgrade auf v6 habe ich in dem Zshg auch gleich gemacht -- dazu war dann auch noch "zpool update" notwendig...
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!