GUI-Problem nach update auf 7.2-3

siehe https://bugzilla.proxmox.com/show_bug.cgi?id=4033

bzw. https://forum.proxmox.com/threads/issue-after-upgrade-to-7-2-3.109003/post-468659

wenn möglich - bitte den neuen kernel von pve-test installieren (im bugzilla ist beschrieben wie das geht)
und uns hier (oder besser im bugzilla) bescheid geben, ob es die situation besser macht.

Ich hab dies durchgeführt, habe dann beim Backup wider Herstellen aus Versehen als Speicherort das NAS angewählt.

Die VM wurde hergestellt und war funktionstüchtig.



Die 2te Vm habe ich auf meine SSD im Ride 1 wiederhergestellt.

Bei ca. 73 % ist Proxmox wider hängen geblieben.

2022-05-05 19_03_16-Unbenannt – Opera.png
 
@Grille - das issue scheint nicht mit dem QNAP NFS zusammenzuhängen (zumindest wäre da nichts in dem Log, dass auf sowas hinweist)

was aber problematisch zu sein scheint, ist dass die i40e (10gig intel NIC) hier und da den Link verliert- z.B.:
May 04 21:16:02 pve-node-3 kernel: i40e 0000:82:00.1 enp130s0f1: NIC Link is Down
May 04 21:16:04 pve-node-3 kernel: i40e 0000:82:00.1 enp130s0f1: NIC Link is Up, 40 Gbps Full Duplex, Flow Control: None
May 04 21:16:05 pve-node-3 pmxcfs[1316]: [status] notice: received log
May 04 21:17:01 pve-node-3 CRON[4932]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
May 04 21:17:01 pve-node-3 CRON[4933]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
May 04 21:17:01 pve-node-3 CRON[4932]: pam_unix(cron:session): session closed for user root
May 04 21:17:19 pve-node-3 kernel: i40e 0000:82:00.1 enp130s0f1: NIC Link is Down
May 04 21:17:19 pve-node-3 kernel: i40e 0000:82:00.1 enp130s0f1: NIC Link is Up, 40 Gbps Full Duplex, Flow Control: None

(auch gibt es logentries über ssh-command timeouts mit dem ZFS over ISCSI storage)

sieht für mich derzeit nach einem Netzwerk issue aus.

Falls das bisher noch nicht vorgekommen ist - würde ich folgendes vorschlagen:
* alten 5.13er kernel booten - und sehen, ob die Meldungen auch auftauchen
* falls nicht (bzw. ist das im Allgmeinen zu empfehlen) mal die firmware der NICs (und des Systems) auf den neuesten Stand bringen (hilft sehr häufig wenn etwas mit einem neuen Kernel Probleme macht, aber davor funktioniert hat)

Ich hoffe das hilft!
 
Ich hab dies durchgeführt, habe dann beim Backup wider Herstellen aus Versehen als Speicherort das NAS angewählt.

Die VM wurde hergestellt und war funktionstüchtig.
Danke das klingt mal gut!
Die 2te Vm habe ich auf meine SSD im Ride 1 wiederhergestellt.

Bei ca. 73 % ist Proxmox wider hängen geblieben.
Die meldungen vom screenshot (wenn möglich solche Sachen bitte lieber als text in
Code:
 Blöcken posten, da es das lesen und copy-pasten um einiges einfacher macht) deuten auf andere Probleme hin:
* zfs hung task timeout - liegt sehr häufig daran, dass die disks zu langsam sind für die workload
* die darüberliegenden operation_not_supported errors wirken so, als wäre auf irgend einer guest-disk/storage discard aktiviert, ohne dass es das storage darunter kann.
 
Danke das klingt mal gut!

Die meldungen vom screenshot (wenn möglich solche Sachen bitte lieber als text in
Code:
 Blöcken posten, da es das lesen und copy-pasten um einiges einfacher macht) deuten auf andere Probleme hin:
* zfs hung task timeout - liegt sehr häufig daran, dass die disks zu langsam sind für die workload
* die darüberliegenden operation_not_supported errors wirken so, als wäre auf irgend einer guest-disk/storage discard aktiviert, ohne dass es das storage darunter kann.
Leider kann ich sobald der Server hängt, nicht via ssh zugreifen.
daher bleibt mir nur der screanshot vom HP ilo4
 
@Grille - das issue scheint nicht mit dem QNAP NFS zusammenzuhängen (zumindest wäre da nichts in dem Log, dass auf sowas hinweist)

was aber problematisch zu sein scheint, ist dass die i40e (10gig intel NIC) hier und da den Link verliert- z.B.:


(auch gibt es logentries über ssh-command timeouts mit dem ZFS over ISCSI storage)

sieht für mich derzeit nach einem Netzwerk issue aus.

Falls das bisher noch nicht vorgekommen ist - würde ich folgendes vorschlagen:
* alten 5.13er kernel booten - und sehen, ob die Meldungen auch auftauchen
* falls nicht (bzw. ist das im Allgmeinen zu empfehlen) mal die firmware der NICs (und des Systems) auf den neuesten Stand bringen (hilft sehr häufig wenn etwas mit einem neuen Kernel Probleme macht, aber davor funktioniert hat)

Ich hoffe das hilft!
@Stoiko Ivanov
Besten Dank für den Hinweis mit der NIC.... Da meine Nodes direkt und nicht über einen Switch miteinander verbunden sind, erscheint die Meldung, sobald ich einen davon neustarte.

Mit der Umstellung auf NFS4 anstatt NFS4.2, bleiben die grauen Fragezeichen weg, der Server läuft und lässt sich über die GUI verwalten.
Eine Disk auf ein anderes Volume zu verschieben dauert jedoch enorm lange.
Gestern Abend habe ich noch den neuen Kernel 5.15.35-1-pve getestet. Mit diesem wurden, trotz deaktivierter QNAP iSCSI und NFS Verbindungen, nach 20Minuten Laufzeit auf den lokalen Festplatten keine VM,CT-Images und backups mehr aufgelistet, sondern der Kreisel/Sanduhr erschien. Nach 5 Minuten Wartezeit erschien dann endlich der Inhalt.
ioWait, CPU und Ram waren alles andere als auffällig. im Journal waren ausser der vanisched Client Meldungen keine weiteren Auffälligkeiten.

Mit dem Kernel 5.13.19-6-pve läuft alles wieder stabil und schnell wie gewohnt.

Ein Firmware Update für die NIC ist tatsächlich Ende April und auch schon im März neu erschienen. Werde ich noch testen.
 
Probleme nach Update 7.2-3 und NFS auf QNAP

Habe auch den 5.13 Kernel gebootet und habe in der NFS einstellung auf NFS 4 gesetzt

Danach den PROXMOX neu gestartet und es hat alles wieder funktioniert. Am QNAP wurde nichts geändert.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!