[SOLVED] TASK ERROR: timeout: no zvol device link for 'vm-175-disk-1' found after 300 sec found.

vikozo

Renowned Member
May 4, 2014
781
31
93
suisse
www.wombat.ch
Hello

ich habe in letzter Zeit häufig Probleme das disk-1 nicht mehr gefunden werden.
Was ist der Grund das diese Disk "verschwinden" - meist tauch das Problem auf nach einem Reboot des node nach einem Kernel update.

gruss
vinc
 
Gute frage aber habe ich die Tage jetzt schon 3 mal gelesen. Ein neues Problem vielleicht?
 
Wenn du meinst das ist ein neuer Bug und wenn hier im Forum keine Lösung zu stande kommt, dann kannst du auch mal einen Eintrag im Bugtracker machen. Das hatte mir bisher immer gut geholfen, wenn ich im Forum nicht weitergekommen bin.
Aber sonst ist der Staff ja auch hier im Forum gut unterwegs und hilft immer sehr kompetent.

Verschwindende Disks sind ja schon ziemlich heikel :(
 
Last edited:
Hallo,
kannst Du die Disk sehen, wenn du zfs list benutzt? Was ist Deine pveversion -v? Gibt es irgendwas Auffälliges in /var/log/syslog?
 
@Fabian_E Danke für dein Feedback

Code:
# zfs list
NAME                       USED  AVAIL     REFER  MOUNTPOINT
raid10                    2.63T  2.63T     2.63T  /raid10
raid10/data                104K  2.63T      104K  /raid10/data
rpool                     2.33T   312G      104K  /rpool
rpool/ROOT                26.0G   312G       96K  /rpool/ROOT
rpool/ROOT/pve-1          26.0G   312G     26.0G  /
rpool/data                2.30T   312G       96K  /rpool/data
rpool/data/vm-108-disk-0  2.00T   312G      559G  -
rpool/data/vm-162-disk-0  7.31G   312G     7.31G  -
rpool/data/vm-507-disk-0  3.69G   312G     3.69G  -
rpool/data/vm-507-disk-1   186G   312G      186G  -
rpool/data/vm-507-disk-2   100G   312G      100G  -
rpool/data/vm-507-disk-4  1.14G   312G     1.14G  -
rpool/data/vm-742-disk-0  2.65G   312G     2.65G  -


Code:
# pveversion -v
proxmox-ve: 6.3-1 (running kernel: 5.4.106-1-pve)
pve-manager: 6.3-6 (running version: 6.3-6/2184247e)
pve-kernel-5.4: 6.3-8
pve-kernel-helper: 6.3-8
pve-kernel-5.4.106-1-pve: 5.4.106-1
pve-kernel-5.4.103-1-pve: 5.4.103-1
pve-kernel-5.4.34-1-pve: 5.4.34-2
ceph-fuse: 12.2.11+dfsg1-2.1+b1
corosync: 3.1.0-pve1
criu: 3.11-3
glusterfs-client: 5.5-3
ifupdown: 0.8.35+pve1
ksm-control-daemon: 1.3-1
libjs-extjs: 6.0.1-10
libknet1: 1.20-pve1
libproxmox-acme-perl: 1.0.8
libproxmox-backup-qemu0: 1.0.3-1
libpve-access-control: 6.1-3
libpve-apiclient-perl: 3.1-3
libpve-common-perl: 6.3-5
libpve-guest-common-perl: 3.1-5
libpve-http-server-perl: 3.1-1
libpve-storage-perl: 6.3-7
libqb0: 1.0.5-1
libspice-server1: 0.14.2-4~pve6+1
lvm2: 2.03.02-pve4
lxc-pve: 4.0.6-2
lxcfs: 4.0.6-pve1
novnc-pve: 1.1.0-1
proxmox-backup-client: 1.0.11-1
proxmox-mini-journalreader: 1.1-1
proxmox-widget-toolkit: 2.4-9
pve-cluster: 6.2-1
pve-container: 3.3-4
pve-docs: 6.3-1
pve-edk2-firmware: 2.20200531-1
pve-firewall: 4.1-3
pve-firmware: 3.2-2
pve-ha-manager: 3.1-1
pve-i18n: 2.2-2
pve-qemu-kvm: 5.2.0-4
pve-xtermjs: 4.7.0-3
qemu-server: 6.3-9
smartmontools: 7.2-pve2
spiceterm: 3.1-1
vncterm: 1.6-2
zfsutils-linux: 2.0.4-pve1

Code:
Mar 31 23:15:19 nas-04 pvedaemon[15234]: start VM 175: UPID:nas-04:00003B82:031D1A61:6064E667:qmstart:175:root@pam:
Mar 31 23:15:19 nas-04 pvedaemon[5113]: <root@pam> starting task UPID:nas-04:00003B82:031D1A61:6064E667:qmstart:175:root@pam:
Mar 31 23:16:00 nas-04 systemd[1]: Starting Proxmox VE replication runner...
Mar 31 23:16:01 nas-04 systemd[1]: pvesr.service: Succeeded.
Mar 31 23:16:01 nas-04 systemd[1]: Started Proxmox VE replication runner.
Mar 31 23:17:00 nas-04 systemd[1]: Starting Proxmox VE replication runner...
Mar 31 23:17:01 nas-04 systemd[1]: pvesr.service: Succeeded.
Mar 31 23:17:01 nas-04 systemd[1]: Started Proxmox VE replication runner.
Mar 31 23:17:01 nas-04 CRON[17488]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Mar 31 23:18:00 nas-04 systemd[1]: Starting Proxmox VE replication runner...
Mar 31 23:18:01 nas-04 systemd[1]: pvesr.service: Succeeded.
Mar 31 23:18:01 nas-04 systemd[1]: Started Proxmox VE replication runner.
Mar 31 23:18:16 nas-04 pmxcfs[3444]: [status] notice: received log
Mar 31 23:19:00 nas-04 systemd[1]: Starting Proxmox VE replication runner...
Mar 31 23:19:01 nas-04 systemd[1]: pvesr.service: Succeeded.
Mar 31 23:19:01 nas-04 systemd[1]: Started Proxmox VE replication runner.
Mar 31 23:20:00 nas-04 systemd[1]: Starting Proxmox VE replication runner...
Mar 31 23:20:01 nas-04 systemd[1]: pvesr.service: Succeeded.
Mar 31 23:20:01 nas-04 systemd[1]: Started Proxmox VE replication runner.
Mar 31 23:20:18 nas-04 pvedaemon[15234]: timeout: no zvol device link for 'vm-175-disk-1' found after 300 sec found.
Mar 31 23:20:18 nas-04 pvedaemon[5113]: <root@pam> end task UPID:nas-04:00003B82:031D1A61:6064E667:qmstart:175:root@pam: timeout: no zvol device link for 'vm-175-disk-1' found after 300 sec found.
Mar 31 23:21:00 nas-04 systemd[1]: Starting Proxmox VE replication runner...
 
Last edited:
Die Disk scheint gar nicht mehr im ZFS zu existieren. Was sagen zpool status und zpool history? Das letztere bitte als Datei anhängen, falls die Ausgabe zu lang ist. Und was passiert, wenn Du qm rescan --vmid 175 machst?
 
zpool history im 2021 hab ich nur das
Code:
2021-01-07.22:10:40 zpool import -N rpool
2021-01-10.00:24:23 zpool scrub rpool
2021-02-14.00:24:41 zpool scrub rpool
2021-03-06.19:17:15 zpool import -N rpool
2021-03-14.00:26:03 zpool scrub rpool
2021-03-17.18:39:21 zpool import -N rpool
2021-03-24.19:47:34 zfs destroy -r rpool/data/vm-525-disk-0
2021-03-24.21:22:24 zfs destroy -r rpool/data/vm-175-disk-0
2021-03-24.21:38:28 zfs destroy -r rpool/data/vm-177-disk-0
2021-03-25.21:09:12 zpool import -N rpool

Code:
# zpool status
  pool: raid10
 state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
        still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
        the pool may no longer be accessible by software that does not support
        the features. See zpool-features(5) for details.
  scan: scrub repaired 0B in 13:46:47 with 0 errors on Sun Mar 14 14:10:50 2021
config:

        NAME        STATE     READ WRITE CKSUM
        raid10      ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            sdg     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
          mirror-1  ONLINE       0     0     0
            sde     ONLINE       0     0     0
            sdh     ONLINE       0     0     0
        logs
          sdb1      ONLINE       0     0     0
        cache
          sdb2      ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
status: Some supported features are not enabled on the pool. The pool can
        still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
        the pool may no longer be accessible by software that does not support
        the features. See zpool-features(5) for details.
  scan: scrub repaired 0B in 07:32:29 with 0 errors on Sun Mar 14 07:56:37 2021
config:

        NAME                                     STATE     READ WRITE CKSUM
        rpool                                    ONLINE       0     0     0
          mirror-0                               ONLINE       0     0     0
            ata-TOSHIBA_HDWA130_Y6AH28XAS-part3  ONLINE       0     0     0
            ata-TOSHIBA_HDWA130_Y6AE7YGAS-part3  ONLINE       0     0     0
        logs
          sda1                                   ONLINE       0     0     0
        cache
          sda2                                   ONLINE       0     0     0

errors: No known data errors
 
Was ist mit zpool history | grep 175? Findet der rescan Befehl etwas?

Wenn Du zu der Task History für die VM gehst, gibt es da irgendwelche Fehler/Warnungen? Bei den Konfiguriere bzw. Configure Tasks am besten auch im Log nachschauen.
 
i found something
but on a nother server there have be a Migration - because of the reboot of the node!

[CODE]pve-04:~# zfs list
NAME USED AVAIL REFER MOUNTPOINT
rpool 7.66T 2.58T 151K /rpool
rpool/ROOT 2.25T 2.58T 140K /rpool/ROOT
rpool/ROOT/pve-1 2.25T 2.58T 2.25T /
rpool/data 5.41T 2.58T 140K /rpool/data
rpool/data/vm-108-disk-0 813G 2.58T 813G -
rpool/data/vm-162-disk-0 19.4G 2.58T 12.3G -
rpool/data/vm-175-disk-0 13.6G 2.58T 13.6G -
rpool/data/vm-175-disk-1 16.9G 2.58T 16.9G -[/CODE]
 
War/ist HA für diese VM aktiv? Gibt es von der Migration einen Log?
 
Ich frage, weil HA die VM einfach verschieben wird, wenn die Node weg ist und keine Rücksicht auf lokale Storage nehmen kann (die lokale Storage ist ja zusammen mit der Node weg). Das hätte erklärt, warum die Disk und die Konfiguration "losgelöst" sind. Für HA braucht man shared Storage oder aktive ZFS-Replikation.

Könntest Du den Log von der Migration posten?

Um die VM und die Disk wieder zusammenzuführen, kann die Konfigurationsdatei manuell auf die richtige Node geschoben werden:
Code:
mv /etc/pve/nodes/<Node ohne Disk>/qemu-server/175.conf /etc/pve/nodes/<Node mit Disk>/qemu-server/175.conf
 
@Fabian_E
bin wohl sehr ungeschickt

hier ist das file
root@nas-04:/etc/pve/qemu-server# ls
175.conf

root@nas-04:/etc/pve/qemu-server# mv 175.conf 10.18.14.44:/etc/pve/qemu-server/
mv: cannot move '175.conf' to '10.18.14.44:/etc/pve/qemu-server/': No such file or directory


wenn ich den inhalt der config file kopieren und im neuen server das file erstellen will bin ich nicht berechtig
 
Es ist nicht nötig, ssh zu benutzen. Unter /etc/pve/ ist das Proxmox Cluster File System gemounted, was automatisch zwischen den Nodes synchronisiert wird. Bitte einen Blick auf das /etc/pve/nodes Verzeichnis werfen und meinen Befehl nochmal genau lesen ;)
 
  • Like
Reactions: vikozo

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!