Fehler bei Migration: Could not resize file

Markus B

New Member
Nov 12, 2018
4
0
1
32
Hallo liebes Proxmox-Forum,
ich nutze seit ein paar Wochen Proxmox und es leistet wirklich einen guten Job!
Nur leider habe ich bei der Migration noch Probleme:

Der Proxmox-Cluster besteht aus zwei Nodes. Das eigentliche Migrieren funktioniert auch soweit, sprich das Image wird vollständig auf den zweiten Node übertragen. Nur leider versucht diese Funktion dann die qcow2 Datei in das raw Format zu wandeln, was leider fehl schlägt:
Es soll wie folgt migriert werden:
Host: VM1
Storage: dir_VM1_data
auf:
Host: VM2
Storage: dir_VM2_data

Namen, IP-Adresse und Co wurden geändert:
Code:
qemu-img: /dev/stdout: error while converting raw: Could not resize file: Invalid argument
command 'qemu-img convert -f qcow2 -O raw /vmdata/images/103/vm-103-disk-0.qcow2 /dev/stdout' failed: exit code 1
cannot import format raw+size into a file of format qcow2
send/receive failed, cleaning up snapshot(s)..
2018-11-12 07:10:47 ERROR: Failed to sync data - command 'set -o pipefail && pvesm export dir_VM2_data:103/vm-103-disk-0.qcow2 raw+size - -with-snapshots 0 | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=VM2' root@x.x.x.x -- pvesm import dir_VM2_data:103/vm-103-disk-0.qcow2 raw+size - -with-snapshots 0' failed: exit code 255
2018-11-12 07:10:47 aborting phase 1 - cleanup resources
2018-11-12 07:10:47 ERROR: found stale volume copy 'dir_VM1_data:103/vm-103-disk-0.qcow2' on node 'VM2'
2018-11-12 07:10:47 ERROR: found stale volume copy 'dir_VM2_data:103/vm-103-disk-0.qcow2' on node 'VM2'
2018-11-12 07:10:47 ERROR: migration aborted (duration 00:03:58): Failed to sync data - command 'set -o pipefail && pvesm export dir_VM2_data:103/vm-103-disk-0.qcow2 raw+size - -with-snapshots 0 | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=VM2' root@x.x.x.x -- pvesm import dir_VM2_data:103/vm-103-disk-0.qcow2 raw+size - -with-snapshots 0' failed: exit code 255
TASK ERROR: migration aborted

Die VM (ID 103) wurde vom vmdk ins qcow2 Format konvertiert, funktioniert jedoch problemlos.

Gibt es vielleicht etwas offensichtliches, was ich übersehen habe? Für jeden Hinweis wäre ich dankbar.

Vielen Dank und Grüße
Markus
 
was ist die version ? (pveversion -v)
und was war genau das kommando bzw. welcher knopf am gui (mit welchen einstellungen)?
 
Vielen Dank für die schnelle Antwort. Ich habe den Button über die GUI verwendet (links neben der Konsole). Als Einstellungen habe ich den anderen Node (VM2) gewählt und den Modus Offline.

Code:
proxmox-ve: 5.2-2 (running kernel: 4.15.18-8-pve)
pve-manager: 5.2-10 (running version: 5.2-10/6f892b40)
pve-kernel-4.15: 5.2-11
pve-kernel-4.15.18-8-pve: 4.15.18-28
pve-kernel-4.15.18-7-pve: 4.15.18-27
pve-kernel-4.15.17-1-pve: 4.15.17-9
corosync: 2.4.2-pve5
criu: 2.11.1-1~bpo90
glusterfs-client: 3.8.8-1
ksm-control-daemon: 1.2-2
libjs-extjs: 6.0.1-2
libpve-access-control: 5.0-8
libpve-apiclient-perl: 2.0-5
libpve-common-perl: 5.0-41
libpve-guest-common-perl: 2.0-18
libpve-http-server-perl: 2.0-11
libpve-storage-perl: 5.0-30
libqb0: 1.0.1-1
lvm2: 2.02.168-pve6
lxc-pve: 3.0.2+pve1-3
lxcfs: 3.0.2-2
novnc-pve: 1.0.0-2
proxmox-widget-toolkit: 1.0-20
pve-cluster: 5.0-30
pve-container: 2.0-29
pve-docs: 5.2-9
pve-firewall: 3.0-14
pve-firmware: 2.0-6
pve-ha-manager: 2.0-5
pve-i18n: 1.0-6
pve-libspice-server1: 0.14.1-1
pve-qemu-kvm: 2.12.1-1
pve-xtermjs: 1.0-5
qemu-server: 5.0-38
smartmontools: 6.5+svn4324-1
spiceterm: 3.0-5
vncterm: 1.5-3
zfsutils-linux: 0.7.11-pve2~bpo1
 
die vm config (/etc/pve/qemu-server/ID.conf) und die storage config (/etc/pve/storage.cfg) wäre interessant
 
Anbei die Codes:
Code:
dir: local
    path /var/lib/vz
    content images,iso,vztmpl
    maxfiles 10
    shared 0

dir: dir_VM1_data
    path /vmdata
    content rootdir,images
    nodes VM1,VM2
    shared 0

dir: dir_VM2_data
    path /vmdata
    content rootdir,images
    nodes VM2,VM1
    shared 0

dir: dir_VM2_backup1
    path /backup1
    content backup
    maxfiles 2
    nodes VM2
    shared 0

dir: dir_VM1_backup1
    path /backup1
    content backup
    maxfiles 2
    nodes VM1
    shared 0

Hier die VM103:
Code:
bootdisk: sata0
cores: 1
ide2: none,media=cdrom
memory: 1024
name: vm_name
net0: e1000=xx:xx:xx:xx:xx:xx,bridge=vmbr1,link_down=1
numa: 0
ostype: l26
sata0: dir_VM1_data:103/vm-103-disk-0.qcow2,size=22G
scsihw: virtio-scsi-pci
smbios1: uuid=ed8774a0-2b50-4006-aa7b-155b15ed9e55
sockets: 1
vmgenid: d07ef4c9-810d-4109-a0f5-699cf62687d8

Vielen Dank nochmal!
 
abgesehen davon dass die 2 storage einträge für /vmdata nicht notwendig sind, sehe ich hier kein problem (hier lokal funkioniert es auch)
ist replication aktiv? liegt das ganze auf einem zfs?
 
schon versucht einen der beiden unnötigen storages zu löschen und danach nochmal versuchen?
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!