Folgendes hat bei mir geholfen:
https://forum.proxmox.com/threads/g...-after-update-to-pve-7-2-3.109020/post-468508
https://forum.proxmox.com/threads/g...-after-update-to-pve-7-2-3.109020/post-468508
siehe https://bugzilla.proxmox.com/show_bug.cgi?id=4033
bzw. https://forum.proxmox.com/threads/issue-after-upgrade-to-7-2-3.109003/post-468659
wenn möglich - bitte den neuen kernel von pve-test installieren (im bugzilla ist beschrieben wie das geht)
und uns hier (oder besser im bugzilla) bescheid geben, ob es die situation besser macht.
Könnte bitte jemand sein gesamtes journal seit dem boot posten - die Auszüge enthalten etwas wenig an infos.
Danke!
May 04 21:16:02 pve-node-3 kernel: i40e 0000:82:00.1 enp130s0f1: NIC Link is Down
May 04 21:16:04 pve-node-3 kernel: i40e 0000:82:00.1 enp130s0f1: NIC Link is Up, 40 Gbps Full Duplex, Flow Control: None
May 04 21:16:05 pve-node-3 pmxcfs[1316]: [status] notice: received log
May 04 21:17:01 pve-node-3 CRON[4932]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
May 04 21:17:01 pve-node-3 CRON[4933]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
May 04 21:17:01 pve-node-3 CRON[4932]: pam_unix(cron:session): session closed for user root
May 04 21:17:19 pve-node-3 kernel: i40e 0000:82:00.1 enp130s0f1: NIC Link is Down
May 04 21:17:19 pve-node-3 kernel: i40e 0000:82:00.1 enp130s0f1: NIC Link is Up, 40 Gbps Full Duplex, Flow Control: None
Danke das klingt mal gut!Ich hab dies durchgeführt, habe dann beim Backup wider Herstellen aus Versehen als Speicherort das NAS angewählt.
Die VM wurde hergestellt und war funktionstüchtig.
Die meldungen vom screenshot (wenn möglich solche Sachen bitte lieber als text inDie 2te Vm habe ich auf meine SSD im Ride 1 wiederhergestellt.
Bei ca. 73 % ist Proxmox wider hängen geblieben.
Blöcken posten, da es das lesen und copy-pasten um einiges einfacher macht) deuten auf andere Probleme hin:
* zfs hung task timeout - liegt sehr häufig daran, dass die disks zu langsam sind für die workload
* die darüberliegenden operation_not_supported errors wirken so, als wäre auf irgend einer guest-disk/storage discard aktiviert, ohne dass es das storage darunter kann.
Leider kann ich sobald der Server hängt, nicht via ssh zugreifen.Danke das klingt mal gut!
Die meldungen vom screenshot (wenn möglich solche Sachen bitte lieber als text inCode:Blöcken posten, da es das lesen und copy-pasten um einiges einfacher macht) deuten auf andere Probleme hin: * zfs hung task timeout - liegt sehr häufig daran, dass die disks zu langsam sind für die workload * die darüberliegenden operation_not_supported errors wirken so, als wäre auf irgend einer guest-disk/storage discard aktiviert, ohne dass es das storage darunter kann.
@Stoiko Ivanov@Grille - das issue scheint nicht mit dem QNAP NFS zusammenzuhängen (zumindest wäre da nichts in dem Log, dass auf sowas hinweist)
was aber problematisch zu sein scheint, ist dass die i40e (10gig intel NIC) hier und da den Link verliert- z.B.:
(auch gibt es logentries über ssh-command timeouts mit dem ZFS over ISCSI storage)
sieht für mich derzeit nach einem Netzwerk issue aus.
Falls das bisher noch nicht vorgekommen ist - würde ich folgendes vorschlagen:
* alten 5.13er kernel booten - und sehen, ob die Meldungen auch auftauchen
* falls nicht (bzw. ist das im Allgmeinen zu empfehlen) mal die firmware der NICs (und des Systems) auf den neuesten Stand bringen (hilft sehr häufig wenn etwas mit einem neuen Kernel Probleme macht, aber davor funktioniert hat)
Ich hoffe das hilft!