Same issue with two different CPUs
Kernel on both servers :
Linux 5.15.102-1-pve #1 SMP PVE 5.15.102-1 (2023-03-14T13:48Z)
CPUS:
Intel(R) Xeon(R) Silver 4309Y CPU @ 2.80GHz
Intel(R) Xeon(R) CPU E5-2670 0 @ 2.60GHz
From E5-2670 to Silver - no issues
From Silver to E5-2670 - VMs are freezing...
This is how it works for us now... if someone is interested in working network configuration.
The VLAN IDs are not reserved by bridge-vlan-aware and added if needed.
Also, we have added a few VLANs which are reserved for the host also and are not "destroyed" by any VM which is trying to run a VM...
This is, how it is now on one of the hosts:
auto lo
iface lo inet loopback
# ConnectX3 interfaces
auto ens85
iface ens85 inet manual
bond-primary ens85 ens85d1
mtu 9000
bond-master bond0
auto ens85d1
iface ens85d1 inet manual
bond-primary ens85 ens85d1...
Hi Proxmox-Forum-Members,
we are trying to get our new proxmox servers network set up correctly, but failing...
What we have:
Proxmox VE 7.3-4
3x new Supermicro Hardware w. Xeon Silver 32C and lots of RAM
One Mellanox ConnectX3 40G QSFP+ card in each
What we need:
3 VLANs with static ips...
Ja, wir benutzen auch die VC-Module. Mit Version 4.62. Die Version ist aber an dieser Stelle nicht wichtig, denke ich...
Ich konnte jedenfalls unser Problem lösen...
Wir mussten lediglich das SR-IOV im VCM auf AUTO für jede Netzwerkkarte in jedem Server Profil einstellen und natürlich gucken...
Moin,
wir haben seit einigen Wochen das gleiche Problem. Es ist plötzlich aufgetreten, ohne dass wir etwas verändert haben...
Seid ihr schon dahintergekommen, wo das Problem mit Ceph beim Migrieren liegt? Was für Cache-Einstellungen nutzt ihr? Hängt das vielleicht damit zusammen oder ist das...
Hallo liebe Forum-Mitglieder,
es gibt schon so viele Beiräge zu Netzwerk und Problemen mit Proxmox V7 und dem neuen 5.11 Kernel, dass ich mir schon fast dumm vorkomme.
Wir haben ein HPE C7000 mit BL460c Gen 8 Servern laufen.
Mit der Kernel-Version 5.11.22-1 laufen die Netzwerkkarten...
Moin,
wir haben neben einem älteren Setup mit PVE v5 und Ceph Luminous nun ein neues Setup mit PVE v6 und Ceph Nautilus.
Unser Problem ist, dass wir mit dem neuen Ceph Cluster und PVE v6 massive Geschwindigkeitsprobleme mit vzdump haben. Auf reiner NVMe Basis sind wir bei ca. 120MB/s, mit...
Wie ist denn der derzeitige Stand mit dieser Problematik?
Hat jemand eine passable Lösung gefunden?
Wir haben jüngst auf die neuste PVE und Ceph Version (inkl. neuer Hardware mit fast ausschließlich NVMes) geupdated.
Seitdem sinkte unsere Performance auf durchschnittlich 10-15MB/s...
Es fahren...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.