Migration Type Performance

Mar 30, 2020
133
15
23
43
Hallo

Beim letzten Update auf 7.2 hatte ich gefühlt eine recht schlechte Performance beim Migrieren der VM's zwischen den Nodes.
Angeblich kann dies von der Verschlüsselung/Übertragung abhängig von der CPU zwischen den Nodes resultieren.

Als Hintergrund dient Ceph daher gehe ich davon aus, dass die Performance von der Rammigration her kommt und habe dazu Key migration:insecure gefunden.
Da nur HyperVisor im Netzwerk stehen hätte ich keine sonderlichen Probleme migration auf insecure zu setzen. Noch besser wäre natürlich das Ceph Netzwerk zum Übertragen zu verwenden, denn dieses wird nicht geroutet / ist nur von den PVE erreichbar.

Meine Fragen hierzu wären

* Hat jemand Erfahrung mit dem Key? Kann man ihn bei Bedarf setzen und wenn ja was muss neu gestartet werden damit dieser im laufenden Betrieb übernommen wird?
* Was denkt ihr über die Idee die RAM Migration über das Ceph Netzwerk (10GBit) laufen zu lassen?

Wie immer Danke u sg
Roland
 
Hi Roland,
ich nutze immer insecure und das ist auch sofort aktiv wenn du das in der Config eingetragen hast. Bei meinen CPUs ist sonst bei 18GBit ende.
Mit Insecure läuft es mit 40GBit Line Speed.
Da Ceph Netzwerk würde ich auf keinen Fall dafür nutzen, weil die Migration die Netzwerkadpter sättigt und damit dein Storage runter zieht.
Ich mixe das Migrationsnetz lieber mit dem VM Netz, da merkt man das normalerweise nicht so doll.
 
Guten Morgen Falk!

Danke für dein Feedback!

Als CPU nutzen wir die AMD EPYC 7352 24-Core, bis jetzt hatte ich zum Glück noch keine Abbrüche bei der Migration.
Dann lasse ich mal die Migration im Frontend, ist ja auch 2x10G im Bond angebunden.

Wenn ich dich richtig verstehe, dann könnte ich das Setting bei Bedarf setzen, es zieht sofort auf die nächste Migration?

sg
Roland
 
Guten Morgen Falk!

Danke für dein Feedback!

Als CPU nutzen wir die AMD EPYC 7352 24-Core, bis jetzt hatte ich zum Glück noch keine Abbrüche bei der Migration.
Dann lasse ich mal die Migration im Frontend, ist ja auch 2x10G im Bond angebunden.

Wenn ich dich richtig verstehe, dann könnte ich das Setting bei Bedarf setzen, es zieht sofort auf die nächste Migration?

sg
Roland
Ja, sobald du das in der datacenter.cfg eingetragen hast wird es in der GUI angezeigt und bei der nächsten Migration genutzt. Ich habe z.B. kleine 2 Node Cluster, welche per DAC direkt verbunden sind, da mache ich immer insecure um die CPU zu entlasten, da der Traffic garantiert nicht abgegriffen werden kann.
 
Ja, sobald du das in der datacenter.cfg eingetragen hast wird es in der GUI angezeigt und bei der nächsten Migration genutzt. Ich habe z.B. kleine 2 Node Cluster, welche per DAC direkt verbunden sind, da mache ich immer insecure um die CPU zu entlasten, da der Traffic garantiert nicht abgegriffen werden kann.
Ich steig mal Off-Topic ein, wer ist denn bei 2Node-Clustern dein "Voter"? Der Cluster ist doch sonst toast, wenn ein Node down ist?
Oder gibt es da einen Trick?
 
Ich habe ein dritten Mini PC als PVE mit drin für Corosync und Ceph Quorum. Da läuft auch der PBS mit drauf. Migriert werden die VMs nur auf den dicken Kisten.
Ich habe auch einen Kunden mit 2 Node und ZFS Replikation, da gibts nen q-Device. Funktioniert da genau so nur über Glasfaser da die verteilt stehen.
 
  • Like
Reactions: itNGO

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!