Hi,
ich habe frisch meine 2 nodes mir Proxmox (5.1-36) installiert. node1 hat ein Hardware-Raid mit ext4. node2 soll mein Notfall-Host werden. Hier sind 2 Festplatten drin und hier habe ich bei der Installation ZFS (Raid1) gewählt. Ich habe beide nodes in einem Cluster zusammengefasst. Soweit alles gut. Nun scheiter aber meiner erster Versuch, einen Container von node1 zu node2 zu migrieren.
Die Fehlermeldung seht ihr unten. Wenn ich allerdings das lvs-Kommando in der Shell ausführe, dann ist das Ergebnis ok (siehe weiter unten). Auch das dd-Kommando passt ansich.
Wo mache ich denn bitte hier den Fehler?
root@node1:~# pct migrate 105 node2
2018-01-04 18:45:24 starting migration of CT 105 to node 'node2' (ipNumber here)
2018-01-04 18:45:24 found local volume 'local-lvm:vm-105-disk-1' (in current VM config)
Volume group "pve" not found
Cannot process volume group pve
command '/sbin/lvs --separator : --noheadings --units b --unbuffered --nosuffix --options vg_name,lv_name,lv_size,lv_attr,pool_lv,data_percent,metadata_percent,snap_percent,uuid,tags pve' failed: exit code 5
command 'dd 'if=/dev/pve/vm-105-disk-1' 'bs=64k'' failed: got signal 13
send/receive failed, cleaning up snapshot(s)..
2018-01-04 18:45:25 ERROR: command 'set -o pipefail && pvesm export local-lvm:vm-105-disk-1 raw+size - -with-snapshots 0 | /usr/bin/ssh -o 'BatchMode=yes' -o 'HostKeyAlias=matroschka4' root@213.202.251.190 -- pvesm import local-lvm:vm-105-disk-1 raw+size - -with-snapshots 0' failed: exit code 5
2018-01-04 18:45:25 aborting phase 1 - cleanup resources
2018-01-04 18:45:25 ERROR: found stale volume copy 'local-lvm:vm-105-disk-1' on node 'matroschka4'
2018-01-04 18:45:25 start final cleanup
2018-01-04 18:45:25 ERROR: migration aborted (duration 00:00:01): command 'set -o pipefail && pvesm export local-lvm:vm-105-disk-1 raw+size - -with-snapshots 0 | /usr/bin/ssh -o 'BatchMode=yes' -o 'HostKeyAlias=matroschka4' root@213.202.251.190 -- pvesm import local-lvm:vm-105-disk-1 raw+size - -with-snapshots 0' failed: exit code 5
migration aborted
root@matroschka3:~# /sbin/lvs --separator : --noheadings --units b --unbuffered --nosuffix --options vg_name,lv_name,lv_size,lv_attr,pool_lv,data_percent,metadata_percent,snap_percent,uuid,tags pve
pve:swap:8589934592:-wi-ao----:::::ThPFYt-FhnT-8p6d-ZvCQ-kv6A-okxT-jd4KEs:
pve:root:103079215104:-wi-ao----:::::qIqZYL-ceR0-oK9p-ghPI-hL5w-k8VW-2gcOzy:
pve:data:870536183808:twi-aotz--::2.78:1.68:2.78:ISSoBX-FsnO-mSwg-t583-U023-7ANF-pRfpQh:
pve:vm-100-disk-1:42949672960:Vwi-aotz--:data:7.99::7.99:61gxOI-jTNJ-sPNx-a2HO-sWTG-WG1n-KPpfgF:
pve:vm-101-disk-1:13958643712:Vwi-aotz--:data:17.39::17.39:NrgpJi-WeP1-Z0XP-0k6T-fW23-Du3E-vuY61a:
pve:vm-102-disk-1:42949672960:Vwi-aotz--:data:26.90::26.90:zXCYV0-m0Po-8qTX-6kdH-n0ar-dJPD-Cbp7v7:
pve:vm-103-disk-1:8589934592:Vwi-aotz--:data:43.43::43.43:5ggGSP-gdJP-8y5o-l075-xIQK-79gM-jiNL4r:
pve:vm-104-disk-1:12884901888:Vwi-aotz--:data:16.13::16.13:XXh1ya-ksjU-ql77-7vmV-WXMJ-LC3a-KcuW1A:
pve:vm-105-disk-1:8589934592:Vwi-a-tz--:data:11.10::11.10:xWbavs-eyVR-q6Vb-T3nt-ipeH-nBL4-ytVO75:
Mit besten Grüßen,
Thorsten
ich habe frisch meine 2 nodes mir Proxmox (5.1-36) installiert. node1 hat ein Hardware-Raid mit ext4. node2 soll mein Notfall-Host werden. Hier sind 2 Festplatten drin und hier habe ich bei der Installation ZFS (Raid1) gewählt. Ich habe beide nodes in einem Cluster zusammengefasst. Soweit alles gut. Nun scheiter aber meiner erster Versuch, einen Container von node1 zu node2 zu migrieren.
Die Fehlermeldung seht ihr unten. Wenn ich allerdings das lvs-Kommando in der Shell ausführe, dann ist das Ergebnis ok (siehe weiter unten). Auch das dd-Kommando passt ansich.
Wo mache ich denn bitte hier den Fehler?
root@node1:~# pct migrate 105 node2
2018-01-04 18:45:24 starting migration of CT 105 to node 'node2' (ipNumber here)
2018-01-04 18:45:24 found local volume 'local-lvm:vm-105-disk-1' (in current VM config)
Volume group "pve" not found
Cannot process volume group pve
command '/sbin/lvs --separator : --noheadings --units b --unbuffered --nosuffix --options vg_name,lv_name,lv_size,lv_attr,pool_lv,data_percent,metadata_percent,snap_percent,uuid,tags pve' failed: exit code 5
command 'dd 'if=/dev/pve/vm-105-disk-1' 'bs=64k'' failed: got signal 13
send/receive failed, cleaning up snapshot(s)..
2018-01-04 18:45:25 ERROR: command 'set -o pipefail && pvesm export local-lvm:vm-105-disk-1 raw+size - -with-snapshots 0 | /usr/bin/ssh -o 'BatchMode=yes' -o 'HostKeyAlias=matroschka4' root@213.202.251.190 -- pvesm import local-lvm:vm-105-disk-1 raw+size - -with-snapshots 0' failed: exit code 5
2018-01-04 18:45:25 aborting phase 1 - cleanup resources
2018-01-04 18:45:25 ERROR: found stale volume copy 'local-lvm:vm-105-disk-1' on node 'matroschka4'
2018-01-04 18:45:25 start final cleanup
2018-01-04 18:45:25 ERROR: migration aborted (duration 00:00:01): command 'set -o pipefail && pvesm export local-lvm:vm-105-disk-1 raw+size - -with-snapshots 0 | /usr/bin/ssh -o 'BatchMode=yes' -o 'HostKeyAlias=matroschka4' root@213.202.251.190 -- pvesm import local-lvm:vm-105-disk-1 raw+size - -with-snapshots 0' failed: exit code 5
migration aborted
root@matroschka3:~# /sbin/lvs --separator : --noheadings --units b --unbuffered --nosuffix --options vg_name,lv_name,lv_size,lv_attr,pool_lv,data_percent,metadata_percent,snap_percent,uuid,tags pve
pve:swap:8589934592:-wi-ao----:::::ThPFYt-FhnT-8p6d-ZvCQ-kv6A-okxT-jd4KEs:
pve:root:103079215104:-wi-ao----:::::qIqZYL-ceR0-oK9p-ghPI-hL5w-k8VW-2gcOzy:
pve:data:870536183808:twi-aotz--::2.78:1.68:2.78:ISSoBX-FsnO-mSwg-t583-U023-7ANF-pRfpQh:
pve:vm-100-disk-1:42949672960:Vwi-aotz--:data:7.99::7.99:61gxOI-jTNJ-sPNx-a2HO-sWTG-WG1n-KPpfgF:
pve:vm-101-disk-1:13958643712:Vwi-aotz--:data:17.39::17.39:NrgpJi-WeP1-Z0XP-0k6T-fW23-Du3E-vuY61a:
pve:vm-102-disk-1:42949672960:Vwi-aotz--:data:26.90::26.90:zXCYV0-m0Po-8qTX-6kdH-n0ar-dJPD-Cbp7v7:
pve:vm-103-disk-1:8589934592:Vwi-aotz--:data:43.43::43.43:5ggGSP-gdJP-8y5o-l075-xIQK-79gM-jiNL4r:
pve:vm-104-disk-1:12884901888:Vwi-aotz--:data:16.13::16.13:XXh1ya-ksjU-ql77-7vmV-WXMJ-LC3a-KcuW1A:
pve:vm-105-disk-1:8589934592:Vwi-a-tz--:data:11.10::11.10:xWbavs-eyVR-q6Vb-T3nt-ipeH-nBL4-ytVO75:
Mit besten Grüßen,
Thorsten