[SOLVED] Migration zeigt keinen Fortschritt an (Solved as Non-Proxmox-Problem)

eanneser

New Member
Sep 4, 2020
8
1
3
63
Hallo
Beim Versuch eine VM auf einen anderen Node zu migrieren, wird im "output" kein Fortschritt angezeigt.
Im "Status" wird die "Duration" normal hochgezählt aber es tut sich nichts ...

Wenn ich die Migration abbreche, kann ich mit "qm unlock xxx" die VM wieder "aktivieren".

Ein "qm rescan" läuft durch, bringt aber keine Veränderung.

Hintergrund: auf diesem Node wird mein Backup-Storage (NFS auf einer NAS) nicht erkannt (Darstellung mit ?-Zeichen), auf den anderen Nodes im Cluster schon. Deswegen wollte ich den Node einmal neu starten und dazu vorher die VMs auf andere Nodes migrieren.

Danke für die Hilfe
 
Hallo,
läuft die VM bei der Migration? Könntest Du trotzdem die Ausgabe des Logs posten?

Bezüglich der Storage: gibt es beim Kommando pvesm status auf dem problematischen Node einen Fehler? Gibt es Fehlermeldungen in /var/log/syslog?
 
Danke schon mal:

ja - die VM läuft!

Welches Log? Wenn ich die Migration starte bekomme ich nur angezeigt:
"... starting migration of VM 106 to node 'cygnus' (192.168.xxx.xx)" und dann eben nichts weiter ...


"pvesm status" auf dem Node ergibt:

storage 'xxxdata-2' is not online
Name Type Status Total Used Available %
bigdata-nas nfs active 5799854848 2891876480 2907859584 49.86%
xxxdata-2 nfs inactive 0 0 0 0.00%
galactica nfs active 10926403712 1013786496 9912617216 9.28%
iso-images nfs active 5799854848 2891876480 2907859584 49.86%
local dir active 98559220 4262732 89246940 4.33%
local-lvm lvmthin active 737402880 0 737402880 0.00%


Im syslog steht immer wieder:
... nfs server 192.168.xxx.xxx not responding, timed out
... storage xxxx-2 is not online


Auf allen anderen Nodes im Cluster wird xxxdata-2 als "active" angezeigt - vermutlich liegt's also nicht an der NAS ...

Gruss
E
 
Last edited:
Kannst Du den NFS Server und die anderen Nodes im Cluster pingen? Gibt es irgendwas was die Netzwerkkonfiguration von dem problematischen Node besonders macht?
 
Ping auf NFS-Server und andere Nodes funktioniert mit "0% packet loss".
Die Netzwerkkonfiguration des Nodes ist so wie bei den anderen Nodes (er läuft seit Nov. 2020 - bisher ohne Probleme)
 
Könntest Du die Ausgabe von
Code:
showmount --exports <IP vom NFS>
rpcinfo -T tcp <IP vom NFS> nfs 4
posten? Und wie ist der Storage in /etc/pve/storage.cfg konfiguriert?
 
"showmount --exports 192.168.xxx.xxx" bringt keine Ausgabe (auch kein Timeout)
"rpcinfo -T tcp 192.168.xxx.xxx nfs 4" ebenso: keine Ausgabe

/etc/pve/storage.cfg (der relevante Teil):

nfs: xxxdata-2
export /volume1/proxmox-kvmcluster-dmz
path /mnt/pve/xxxdata-2
server 192.168.xxx.xxx
content backup
prune-backups keep-last=5

Gruss
E
 
Könntest Du versuchen die Storage zu deaktivieren und dann zu migrieren? Es könnte sein, dass die da irgendwie dazwischenfunkt. PVE scant nämlich Storages um Disken von der VM zu finden, aber eigentlich sollten solche Storages nicht dabei sein (insbesondere da nur Backups als Inhalt konfiguriert ist). Bitte die Ausgabe von pveversion -v posten, vielleicht hat sich da in der Zwischenzeit etwas geändert.

Deaktivieren kannst Du die Storage entweder in der GUI mit der Aktivieren Checkbox oder pvesm xxxdata-2 --disable 1. Und nach dem Migrieren wieder aktivieren (i.e. mit --disable 0)
 
Ich habe die Storage deaktivert, dann ging die Migration glatt durch.
Danach habe ich die Storage wieder aktiviert und den Node gebootet: Ergebnis: die Storage wird wieder mit "?" angezeigt, auf allen anderen Nodes aber normal.

Die Ausgabe von 'pveversion -v':

proxmox-ve: 6.3-1 (running kernel: 5.4.78-2-pve)¬
pve-manager: 6.3-3 (running version: 6.3-3/eee5f901)¬
pve-kernel-5.4: 6.3-3¬
pve-kernel-helper: 6.3-3¬
pve-kernel-5.3: 6.1-6¬
pve-kernel-5.4.78-2-pve: 5.4.78-2¬
pve-kernel-5.4.73-1-pve: 5.4.73-1¬
pve-kernel-5.4.65-1-pve: 5.4.65-1¬
pve-kernel-5.3.18-3-pve: 5.3.18-3¬
pve-kernel-5.3.18-2-pve: 5.3.18-2¬
ceph-fuse: 12.2.11+dfsg1-2.1+b1¬
corosync: 3.1.0-pve1¬
criu: 3.11-3¬
glusterfs-client: 5.5-3¬
ifupdown: 0.8.35+pve1¬
ksm-control-daemon: 1.3-1¬
libjs-extjs: 6.0.1-10¬
libknet1: 1.20-pve1¬
libproxmox-acme-perl: 1.0.7¬
libproxmox-backup-qemu0: 1.0.2-1¬
libpve-access-control: 6.1-3¬
libpve-apiclient-perl: 3.1-3¬
libpve-common-perl: 6.3-3¬
libpve-guest-common-perl: 3.1-4¬
libpve-http-server-perl: 3.1-1¬
libpve-storage-perl: 6.3-6¬
libqb0: 1.0.5-1¬
libspice-server1: 0.14.2-4~pve6+1¬
lvm2: 2.03.02-pve4¬
lxc-pve: 4.0.6-2¬
lxcfs: 4.0.6-pve1¬
novnc-pve: 1.1.0-1¬
proxmox-backup-client: 1.0.8-1¬
proxmox-mini-journalreader: 1.1-1¬
proxmox-widget-toolkit: 2.4-5¬
pve-cluster: 6.2-1¬
pve-container: 3.3-3¬
pve-docs: 6.3-1¬
pve-edk2-firmware: 2.20200531-1¬
pve-firewall: 4.1-3¬
pve-firmware: 3.2-1¬
pve-ha-manager: 3.1-1¬
pve-i18n: 2.2-2¬
pve-qemu-kvm: 5.1.0-8¬
pve-xtermjs: 4.7.0-3¬
qemu-server: 6.3-5¬
smartmontools: 7.1-pve2¬
spiceterm: 3.1-1¬
vncterm: 1.6-2¬
zfsutils-linux: 0.8.5-pve1¬


Auch die NAS habe ich inzwischen neu gestartet - keine Änderung.

Es gibt eine weitere Storage, (auch eine Synology-NAS), die wird auf allen Nodes sauber angezeigt!
Gibt's noch was das ich tun kann?
 
Das Problem hat sich (hoffentlich!) gelöst - es hat überhaupt nichts mit Proxmox zu tun:
es fehlte ein Eintrag in der Firewall - damit hatte wohl das NFS ein Problem.
Warum das Problem erst jetzt aufgetreten ist, kann ich nicht nachvollziehen - jedenfalls wird die Storage jetzt sauber angezeigt, und auch eine Migration ist problemlos auf den Node möglich.
Vielen Dank für die Unterstützung!
Gruss
E
 
  • Like
Reactions: fiona

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!