i configured Openid on azure im PMG but when i try to login i get:
OpenID Connect login failed, please try again
authentication failure no such user ('user@domain.com@AzureSSO') (401)
we ran into a weird issue. when we came in this morning and checked our main cluster node, we get <span> in front of everything in the GUI. reset browser cache and still there. tried apt reset via shell and still no go. anyone ever run into this...
Hello,
Sorry for the late update, I replaced all the Crucial disks and now no slow messages... and no more performance "problems".
Best regards.
Francis
Can't help you there, but as I was looking for something similar, I have created https://bugzilla.proxmox.com/show_bug.cgi?id=7395 as a feature request.
I have created https://bugzilla.proxmox.com/show_bug.cgi?id=7395 as a feature request.
A workaround for you could be to log the subject, but this would apply to every mail received...
In meinem Fall ist es eben so:
* SAN ist vorhanden, jeweils 2 FC-Controller pro Node, etc -> das will der Kunde nicht wegwerfen, wenn es soweit gut funktioniert
* 5 Platten drin, RAID5 (nicht mein Wunsch, aber ist so), eine LUN, da drauf das...
Hi everyone. I'm new at Proxmox and virtualization, and I'm currently stuck in making the GPU Passthrough work for my Pop OS 22.04.
It seems to be partially working, as I can see the ProxMox boot screen on TV, but after that I get a "No signal"...
So hätte ich das (als Ceph-Laie) nicht formuliert. Das, was Ceph unbedingt braucht, ist ein schnelles Netz - oder auch zwei. Und zwar idealerweise ein separates. Für mich hört sich das echt nach Storage-Area-Network an ;-)
Naja Ceph ist ja ein verteiltes System, was darauf ausgelegt ist aus zig Servern und in ihnen verbauten Platten/SSDs einen gemeinsamen Storage zu bauen.
Das skaliert extrem ( je mehr Knoten und je mehr Platten desto bessere Performance), ist...
Da checkwan.sh dazu neigte Fehlalarme zu produzieren, verlasse ich mich nun nur auf die "Meinung" der Fritzboxgateways. forcefailover.sh liefert entweder 0 oder 1, je nachdem ob man einen Ausfall simulieren möchte ohne den service neu starten zu...
Your reply confirms this is a two-phase problem:
Phase 1: Why does re-peering take long enough to cause 120s+ blocked I/O?
On NVMe with 10G networking, peering 75 PGs should complete in seconds, not minutes. Something is making it abnormally...
I did a quick test to reproduce this backup "hang" issue, and the results are pretty clear. It seems Backup Fleecing is exactly what we need for these kinds of bottlenecks.
My test setup:I tried to simulate a "worst-case scenario" with a...