VM-Migration von Knoten 2 zu Knoten 3 (Beide im selben Cluster)

Jul 12, 2022
35
2
13
Hallo zusammen,

Ich bin auf ein Problem gestoßen, während ich versuchte, eine Migration durchzuführen:

Code:
2023-07-26 13:51:17 starting migration of VM 2000 to node 'Jobcluster-BMS' (x.x.x.x)
2023-07-26 13:51:17 found local disk 'local-zfs:vm-2000-disk-0' (in current VM config)
2023-07-26 13:51:17 copying local disk images
2023-07-26 13:51:18 full send of rpool/data/vm-2000-disk-0@__migration__ estimated size is 16.9G
2023-07-26 13:51:18 total estimated size is 16.9G
2023-07-26 13:51:19 command 'zfs recv -F -- rpool/data/vm-2000-disk-0' failed: open3: exec of zfs recv -F -- rpool/data/vm-2000-disk-0 failed: No such file or directory at /usr/share/perl5/PVE/Tools.pm line 455.
2023-07-26 13:51:19 command 'zfs send -Rpv -- rpool/data/vm-2000-disk-0@__migration__' failed: got signal 13
send/receive failed, cleaning up snapshot(s)..
2023-07-26 13:51:19 ERROR: storage migration for 'local-zfs:vm-2000-disk-0' to storage 'local-zfs' failed - command 'set -o pipefail && pvesm export local-zfs:vm-2000-disk-0 zfs - -with-snapshots 0 -snapshot __migration__ | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=Jobcluster-BMS' root@x.x.x.x -- pvesm import local-zfs:vm-2000-disk-0 zfs - -with-snapshots 0 -snapshot __migration__ -delete-snapshot __migration__ -allow-rename 1' failed: exit code 2
2023-07-26 13:51:19 aborting phase 1 - cleanup resources
2023-07-26 13:51:19 ERROR: migration aborted (duration 00:00:02): storage migration for 'local-zfs:vm-2000-disk-0' to storage 'local-zfs' failed - command 'set -o pipefail && pvesm export local-zfs:vm-2000-disk-0 zfs - -with-snapshots 0 -snapshot __migration__ | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=Jobcluster-BMS' root@x.x.x.x -- pvesm import local-zfs:vm-2000-disk-0 zfs - -with-snapshots 0 -snapshot __migration__ -delete-snapshot __migration__ -allow-rename 1' failed: exit code 2
TASK ERROR: migration aborted


Weiß jemand, was die Ursache für dieses Problem ist?

Es wäre großartig, wenn ihr mir helfen könntet. :)
 
Last edited:
Hi, sind die Hosts alle identisch? Wenn ja, sind auch die CPU Options im BIOS identisch?
 
Also wenn du eine Storagemigration machen willst, muss der Zielstorage erreichbar sein.
Check mal dein local-zfs und bei Fragen, möglichst detailierte Infos dazu geben .
 
Wenn der Datastore nicht erreichbar ist, klappt auch keine Migration.
 
Das ist aber eine Lokale SSD.
Hat das damit was zu tuen. dass ich ein RAID1 verwende?
Gibt es eine Möglichkeit das ZFS zu aktivieren?
View attachment 53509
Normalerweise sollte das online sein, was hast du zuletzt auf dem Node gemacht?
Hast du Fehler in den Logs?
 
Normalerweise sollte das online sein, was hast du zuletzt auf dem Node gemacht?
Hast du Fehler in den Logs?
Das Node ist neu. Ein "journalctl -f" gibt mir folgendes aus:

Code:
Jul 26 16:58:39 Jobcluster-BMS pvedaemon[66589]: zfs error: open3: exec of zpool list -o name -H rpool failed: No such file or directory at /usr/share/perl5/PVE/Tools.pm line 455.
Jul 26 16:58:39 Jobcluster-BMS pvedaemon[66589]: zfs error: open3: exec of zpool list -o name -H rpool failed: No such file or directory at /usr/share/perl5/PVE/Tools.pm line 455.
Jul 26 16:58:39 Jobcluster-BMS pvedaemon[66589]: could not activate storage 'local-zfs', zfs error: open3: exec of zpool import -d /dev/disk/by-id/ -o cachefile=none rpool failed: No such file or directory at /usr/share/perl5/PVE/Tools.pm line 455.
 
Soll ich lieber den Node neu installieren?
Wenn ja, auf was soll ich achten?
Hi,

was liefert ein zpool status? Wie ist die storage config auf dem node cat /etc/pve/storage.cfg?
 
Last edited:
Das du keinen Pool findest ist komisch, da er ja mal da war (laut storage.cfg) und du ja davon bootest.
Hast du den Node schon mal neu gestartet?
Falls der Pool komplett hinüber ist, sollte der Node auch nicht mehr booten. Sonst könnte er eventuell wieder auftauchen.
 
Bitte den output von lsblk -o +FSTYPE posten, was gibt ein zpool import als output zurück?