Recent content by s-mendyka

  1. S

    PVE 8.0 / PVE8.1 Netzwerk Latenzen

    Danke für den Hinweis, wir aktualisieren alle 2 Wochen die Firmware unserer Server :) Aber gehe davon aus das es kein Hardware Problem ist, da wir sowohl bei Supermicro als auch bei DELL das Problem haben
  2. S

    PVE 8.0 / PVE8.1 Netzwerk Latenzen

    Nach mehreren Tests, die noch nicht abgeschlossen sind, haben wir beschlossen den 5.15er Kernel solang noch einzusetzen. Das deaktivieren von numa_balancing verbessert den Ping wohl, aber der Kernel ist deutlich und nachweißlich noch stabiler diesbezüglich. Da ich nicht genau weiß was genau am...
  3. S

    PVE 8.0 / PVE8.1 Netzwerk Latenzen

    Danke erstmal für die Hilfe! wir werden berichten :) Aktuell haben wir einen PVE Server mit dem Kernel 5.15 bestückt, hier scheint das Problem nicht mehr vorhanden zu sein! nach 1000 Pings, liegt alles zwischen 0.2ms bis 0.7ms sowie habe ich es gewagt auf einem Produktiv System Numa zu...
  4. S

    PVE 8.0 / PVE8.1 Netzwerk Latenzen

    die betriebenen VMs sind eigentlich alle Debian / Ubuntu aktuelle LTS (also Kernel Treiber). Wir haben den Downgrade vom Kernel gerade getestet und werden einen unserer Server nächste Woche Dienstag mal auf 5.15 bringen. Ich bin gespannt was dabei herauskommt und melde mich nochmal.
  5. S

    PVE 8.0 / PVE8.1 Netzwerk Latenzen

    Hi Falk, danke erstmal für deine Hilfe :) leider räumen wir unsere Server immer gut auf, daher ist der 5.15er Kernel nicht mehr installiert, habe bislang aber auch nicht geprüft, wie genau, oder ob überhaupt ich den reinstallieren kann. Aber jetzt wo du es sagst, sollte das Hauptaugenmerk...
  6. S

    PVE 8.0 / PVE8.1 Netzwerk Latenzen

    Hallo zusammen, wir besitzen an 2 unterschiedlichen Standorten mehrere PVE Server, die seit dem Upgrade von PVE7 auf 8 Netzwerkprobleme aufweisen. Ich habe schon diverse Hinweise gefunden, dass es bei DELL Servern Probleme geben soll, aber wir haben auch Supermicro-Server gleiche Probleme...
  7. S

    VM live migration using lvm-thin with discard results in high I/O

    We have the same Problem. Live Migration with discard "on" resulting into all VMs are Stuck because of high IO. We see with iotop write rates over 900MB/s so all other VMs not respondig anymore. So last year we disabled discard on all VM´s. The result is: After a big failure with one Server...
  8. S

    Proxmox local HDD kopieren verbessern

    Ich konnte das Problem nun identifizieren. Sobald bei der VM die migriert werden soll. "discard" aktiv ist, kommt es während der Migration am Zielserver zu der hohen IO Last. Es scheint so, als würde der migrate Prozess vorerst die "nullen" schreiben, bevor er mit der Übertragung anfängt Wenn...
  9. S

    Proxmox local HDD kopieren verbessern

    Nachtrag: Bei mir ist es praktisch egal ob virtio-blk sata oder ide, das Problem erscheint bei jedem Format Auffällig ist, dass am Ziel Server folgender Prozess erscheint und erstmal 100% Auslastung des IO-Subsystems verursacht: io_wqe_worker (ca. 8x als worker 0 und 1) kann man diesen...
  10. S

    Proxmox local HDD kopieren verbessern

    Ich habe das gleiche Problem! Der Task steht gefühlt ewig an dem Punkt: 2021-08-08 22:28:29 scsi1: start migration to nbd:unix:/run/qemu-server/502_nbd.migrate:exportname=drive-scsi1 Auf dem Zielserver steigt die IO-Last auf über 70%, was dazu führt das die laufenden VM´s auf dem Server...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!