Guten Morgen,
ich habe ein Problem mit der Container-Migration (Testaufbau für spätere Prod-Umgebung):
In meinem Cluster befinden sich aktuell 2 Nodes, pve00 und pve0. Dort habe ich jeweils eine VG names vmdata01 angelegt. In den VGs habe ich wiederum jeweils ein LV namens bigdata01 angelegt¹.
Der LVM-Thin-Storage auf pve00 heißt data00, der auf pve01 heißt bigdata01.
Die Migration via Web-GUI oder Cli bricht allerdings ab:
Die VM-Disk wird auch übertragen, dann bricht der Vorgang allerdings ab. Die Dusk lösche ja per Web-GUI vor jedem Test bzw. bricht der Vorgang auch bei explizit neu erstellten Containern ab.
Was übersehe ich?
¹ Initial hatte ich auf den Nodes auch unterschiedliche Namen für VG und LV. Da brach die Migration aber direkt mit dem Hinweis auf die jeweilig nicht existierende VG bzw. das nicht existierende LV ab.
ich habe ein Problem mit der Container-Migration (Testaufbau für spätere Prod-Umgebung):
In meinem Cluster befinden sich aktuell 2 Nodes, pve00 und pve0. Dort habe ich jeweils eine VG names vmdata01 angelegt. In den VGs habe ich wiederum jeweils ein LV namens bigdata01 angelegt¹.
Der LVM-Thin-Storage auf pve00 heißt data00, der auf pve01 heißt bigdata01.
Die Migration via Web-GUI oder Cli bricht allerdings ab:
Bash:
root@pve00:~# pct migrate 102 pve01
2021-06-01 09:44:08 use dedicated network address for sending migration traffic (192.168.1.101)
2021-06-01 09:44:09 starting migration of CT 102 to node 'pve01' (192.168.1.101)
2021-06-01 09:44:09 found local volume 'bigdata01:vm-102-disk-0' (in current VM config)
2021-06-01 09:44:09 found local volume 'daten00:vm-102-disk-0' (via storage)
2021-06-01 09:44:11 Logical volume "vm-102-disk-0" created.
2021-06-01 09:44:20 16384+0 records in
2021-06-01 09:44:20 16384+0 records out
2021-06-01 09:44:20 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 9.99303 s, 107 MB/s
2021-06-01 09:44:24 49+40145 records in
2021-06-01 09:44:24 49+40145 records out
2021-06-01 09:44:24 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 13.1822 s, 81.5 MB/s
2021-06-01 09:44:24 successfully imported 'bigdata01:vm-102-disk-0'
2021-06-01 09:44:26 volume vmdata01/vm-102-disk-0 already exists
2021-06-01 09:44:26 command 'dd 'if=/dev/vmdata01/vm-102-disk-0' 'bs=64k'' failed: got signal 13
send/receive failed, cleaning up snapshot(s)..
2021-06-01 09:44:26 ERROR: storage migration for 'daten00:vm-102-disk-0' to storage 'daten00' failed - command 'set -o pipefail && pvesm export daten00:vm-102-disk-0 raw+size - -with-snapshots 0 | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=pve01' root@192.168.1.101 -- pvesm import daten00:vm-102-disk-0 raw+size - -with-snapshots 0 -allow-rename 0' failed: exit code 255
2021-06-01 09:44:26 aborting phase 1 - cleanup resources
2021-06-01 09:44:26 ERROR: found stale volume copy 'bigdata01:vm-102-disk-0' on node 'pve01'
2021-06-01 09:44:26 ERROR: found stale volume copy 'daten00:vm-102-disk-0' on node 'pve01'
2021-06-01 09:44:26 start final cleanup
2021-06-01 09:44:26 ERROR: migration aborted (duration 00:00:18): storage migration for 'daten00:vm-102-disk-0' to storage 'daten00' failed - command 'set -o pipefail && pvesm export daten00:vm-102-disk-0 raw+size - -with-snapshots 0 | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=pve01' root@192.168.1.101 -- pvesm import daten00:vm-102-disk-0 raw+size - -with-snapshots 0 -allow-rename 0' failed: exit code 255
migration aborted
Die VM-Disk wird auch übertragen, dann bricht der Vorgang allerdings ab. Die Dusk lösche ja per Web-GUI vor jedem Test bzw. bricht der Vorgang auch bei explizit neu erstellten Containern ab.
Was übersehe ich?
¹ Initial hatte ich auf den Nodes auch unterschiedliche Namen für VG und LV. Da brach die Migration aber direkt mit dem Hinweis auf die jeweilig nicht existierende VG bzw. das nicht existierende LV ab.