Belasse die Konfiguration mit deiner 1GBit Karte so wie es vorher war. Erstelle für die 10GBit eine neue Bridge OHNE IP Konfiguration. Bau nun auf PC und in FreeNAS VM ein eigenes Netz ohne Gateway auf zBsp 10.10.10.2/24 für FreeNAS und 10.10.10.3/24 auf deinem PC. Verbindungen vom PC machste...
Die ZFS Pool Lösung von wolfgang ist schon nicht schlecht, vor allem da der bisherige ZFS Pool aus SSDs besteht und das raus geworfenes Geld wäre (SAS 10k Platten sind mit Größen um die 1TB immer noch günstiger als vergleichbare SSDs). Vorteil der eigenen Disk für die VM ist natürlich das ich...
Guten Morgen,
ich habe hier einen Windows Server mit DC (virtualisiert) und es besteht etwas Bedarf an Freigaben für das Hinterlegen von Dateien. Bisher wurde dies über ein kleines externes Storage (unter 2TB) erledigt. Da nun aber die Host Maschinen einen ganzen HBA mit 8 Ports frei hat hatte...
So und hier nun das Testergebnis. Während des qmrestore schwankt die IO Wait doch recht stark, von Normalwert 0-2% bis 10-15%. Sobald die IO Wait hoch schießt kommen auch 2 "kworker" Prozesse in der CPU Last hoch, sinkt die IO Wait sind die Prozesse auch fast im Idle. Was mir dann noch...
Exakt die gleiche Maschine. Davon gibt es sogar 2 mit exakt gleicher Hardware, Firmware und Proxmox Version. Auf beiden Maschinen habe ich die Problematik. Das hohe IO Wait kommt ja sogar direkt Zustande nach der Installation von Proxmox. Hier lief vorher Version 4 mit LVM (auch da keine...
Ich habe ein System mit 8x 300GB SAS 10k von HP im Einsatz, allerdings im Raid 10 hinter einem P420i mit einer Ratio von 30/70. Die IO Wait schießt bei einem Restore (die VM war vorher nicht angelegt und auf einer anderen Cluster Node) auf 10-15% und legt dann damit die ganzen latenzkritischen...
Das mit der Cache Ratio ist wohl "normal", die steht nach Firmware Upgrade scheinbar auf 100/0 lesen/schreiben. Aber hast du bei deinem ML350G9 auch die Problematik mit der höheren IO Wait bei einem qmrestore mit LVM Thin?
So und hier die Tests mit verschiedenen "bwlimit" Werten (was mich nun wundert das der Speed bei 240000 auf einmal passt), ohne Komprimierung und ansonsten Standard Einstellungen.
Ich werde das mal testen, das ist mit aktivem LZO.
PS: Habe mit 10G Netzwerk kein Problem, aber auch kein richtigen HA Cluster im Einsatz. Problem besteht halt dann nur in der hohen IO durch qmrestore.
Also wenn ich das bwlimit weg lasse bzw einfach eine 0 dran hänge bekomme ich Transferraten von 300mb/s (im Falle von vzdump). Aber ich denke anderes Thema hierfür?
Ich möchte einfach mal schauen ob es hier Performance Verbesserungen geben könnte, ein so hoher Versionsunterschied kommt ja meist nicht von ungefähr. In dem Treiber Paket sind auch die Sourcen enthalten mit entsprechenden Scripten (die man zumindest gemäß Anleitung nutzen solle. Das kommt dabei...
Guten Morgen,
ich habe hier diverse LSI 3008 HBA im Einsatz. Im Proxmox Kernel enthalten ist die Treiber Version 15.100, der Hersteller Treiber hat aber bereits die Version 22.00.02. Den Treiber zu kompelieren ist leider nicht möglich, hier gibt es diverse Fehlermeldungen.
Allerdings sind...
Verständnisfrage:
Ich habe in vzdump.conf ein bwlimit von 60000 eingetragen, die Backups laufen aber nur mit 30MB/s. Habe ich einen Denkfehler oder sollten hier knapp 60MB/s erreicht werden?
Vielen Dank für die Prüfung zwecks qmrestore. Daumen hoch.
Mich persönlich würde es freuen, nachdem es zu diesem "qmrestore io" Thema doch einige Anfragen gibt, vom Proxmox Staff in einer der vielen Anfragen entweder eine Bestätigung des Problems mit angekündigter Problemlösung, ein Workaround oder gar schon mögliche Lösung präsentiert zu bekommen.
Gleiches wie bei mir: https://forum.proxmox.com/threads/lvm-thin-gegen-lvm-performance-unterschied-bei-einem-backup-restore.40891/
Betrifft wohl einige Setups.
Geht hier eher um das Ausfall Konzept. Der LVM-Thin Pool ist ja ein lokales Storage, fällt eine Node aus dem Cluster aus so wird aus dem letzten Vollbackup oder bei geplantem Ausfall die VM auf eine andere Node migriert oder eine VM aus Last Gründen auf eine andere Node im Cluster geschoben...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.