Hallo.
Ich habe zwei Server, auf denen Proxmox läuft. Beide nutzen ZFS und ich klone ein paar ZVOLs von Server A regelmäßig per CronJob auf Server B. Nun gab es eine Umstrukturierung (andere IP-Adressen usw), so dass ich die Scripte ändern musste.
Dabei ist ein Fehler aufgetreten, den ich mir nicht erklären kann:
Ich habe von Produktiv-Server A diesen Befehl losgelassen, um einen aktuellen Snapshot auf den Backup-Server B zu kopieren:
Das lief zwar durch, hat mir aber die Struktur zerschossen, die ich vorher auf Server B hatte.
Daraufhin wollte ich einfach nochmal von vorne anfangen und den ZPool löschen (das geht im Webinterface nicht, richtig?).
Die Befehle dazu reagieren nun allerdings seltsam:
Wie kann ich den zfs-pool wieder loswerden? Seltsamerweise zeigt mir
Im Webinterface steht allerdings
"Usage 57.27% (1.01 TiB of 1.76 TiB)".
Das sieht mir fast so aus, als wären die alten ZVOLs noch drauf -- werden aber nicht mehr gefunden.
Daher die Frage: Wie kann man das lösen?
Ich habe zwei Server, auf denen Proxmox läuft. Beide nutzen ZFS und ich klone ein paar ZVOLs von Server A regelmäßig per CronJob auf Server B. Nun gab es eine Umstrukturierung (andere IP-Adressen usw), so dass ich die Scripte ändern musste.
Dabei ist ein Fehler aufgetreten, den ich mir nicht erklären kann:
Ich habe von Produktiv-Server A diesen Befehl losgelassen, um einen aktuellen Snapshot auf den Backup-Server B zu kopieren:
Code:
zfs send rpool/vm-199-disk-0@zfs-auto-snap_daily-2020-08-13-0425 |ssh pve-backup zfs recv -F zfs-pool/vm-199-disk-0
Daraufhin wollte ich einfach nochmal von vorne anfangen und den ZPool löschen (das geht im Webinterface nicht, richtig?).
Die Befehle dazu reagieren nun allerdings seltsam:
Code:
zfs destroy zfs-pool
cannot destroy 'zfs-pool': dataset already exists
zpool destroy -f zfs-pool
cannot open 'zfs-pool': operation not applicable to datasets of this type
Wie kann ich den zfs-pool wieder loswerden? Seltsamerweise zeigt mir
Code:
zfs list -t all
NAME USED AVAIL REFER MOUNTPOINT
zfs-pool 1.01T 768G 16.2G -
"Usage 57.27% (1.01 TiB of 1.76 TiB)".
Das sieht mir fast so aus, als wären die alten ZVOLs noch drauf -- werden aber nicht mehr gefunden.
Daher die Frage: Wie kann man das lösen?
Code:
pveversion -v
proxmox-ve: 5.4-2 (running kernel: 4.15.18-30-pve)
pve-manager: 5.4-15 (running version: 5.4-15/d0ec33c6)
pve-kernel-4.15: 5.4-19
pve-kernel-4.13: 5.2-2
pve-kernel-4.15.18-30-pve: 4.15.18-58
pve-kernel-4.15.18-20-pve: 4.15.18-46
pve-kernel-4.15.18-19-pve: 4.15.18-45
pve-kernel-4.15.18-17-pve: 4.15.18-43
pve-kernel-4.15.18-16-pve: 4.15.18-41
pve-kernel-4.15.18-15-pve: 4.15.18-40
pve-kernel-4.15.18-11-pve: 4.15.18-34
pve-kernel-4.15.18-10-pve: 4.15.18-32
pve-kernel-4.15.18-9-pve: 4.15.18-30
pve-kernel-4.15.18-8-pve: 4.15.18-28
pve-kernel-4.15.18-7-pve: 4.15.18-27
pve-kernel-4.13.16-4-pve: 4.13.16-51
corosync: 2.4.4-pve1
criu: 2.11.1-1~bpo90
glusterfs-client: 3.8.8-1
ksm-control-daemon: 1.2-2
libjs-extjs: 6.0.1-2
libpve-access-control: 5.1-12
libpve-apiclient-perl: 2.0-5
libpve-common-perl: 5.0-56
libpve-guest-common-perl: 2.0-20
libpve-http-server-perl: 2.0-14
libpve-storage-perl: 5.0-44
libqb0: 1.0.3-1~bpo9
lvm2: 2.02.168-pve6
lxc-pve: 3.1.0-7
lxcfs: 3.0.3-pve1
novnc-pve: 1.0.0-3
proxmox-widget-toolkit: 1.0-28
pve-cluster: 5.0-38
pve-container: 2.0-42
pve-docs: 5.4-2
pve-edk2-firmware: 1.20190312-1
pve-firewall: 3.0-22
pve-firmware: 2.0-7
pve-ha-manager: 2.0-9
pve-i18n: 1.1-4
pve-libspice-server1: 0.14.1-2
pve-qemu-kvm: 3.0.1-4
pve-xtermjs: 3.12.0-1
pve-zsync: 2.0-3~bpo5
qemu-server: 5.0-56
smartmontools: 6.5+svn4324-1
spiceterm: 3.0-5
vncterm: 1.5-3
zfsutils-linux: 0.7.13-pve1~bpo2
Last edited: