[SOLVED] Falsches Netz für Management?

shb256

New Member
Feb 5, 2022
14
0
1
40
Hallo,

Ich habe gerade zwei Nodes mit je der aktuellen Version Proxmox Version
Ich habe bei der Installation auf dem Ethernet Adapter folgende IP Adressen vergeben PVE01 172.16.1.101 und PVE03 172.16.1.103.
Nach der Installation habe ich bei beiden Nodes ein Bond auf das LWL Interface gemacht und die IP Adressen PVE01 10.200.10.101 und PVE03 10.200.10.103 vergeben.

Ich kann beide Nodes pingen auf beiden IP Adressen.
Zusätzlich habe ich eine VM auf einem NFS Share liegen.

Bei der Live Migration erhalte ich folgende Ausgabe
2022-12-23 18:22:29 starting migration of VM 116 to node 'pve01' (172.16.1.101)
2022-12-23 18:22:29 starting VM 116 on remote node 'pve01'
2022-12-23 18:22:30 start remote tunnel
2022-12-23 18:22:31 ssh tunnel ver 1
2022-12-23 18:22:31 starting online/live migration on unix:/run/qemu-server/116.migrate
2022-12-23 18:22:31 set migration capabilities
2022-12-23 18:22:31 migration downtime limit: 100 ms
2022-12-23 18:22:31 migration cachesize: 1.0 GiB
2022-12-23 18:22:31 set migration parameters
2022-12-23 18:22:31 start migrate command to unix:/run/qemu-server/116.migrate
2022-12-23 18:22:32 migration active, transferred 112.3 MiB of 8.0 GiB VM-state, 112.7 MiB/s
2022-12-23 18:22:33 migration active, transferred 224.6 MiB of 8.0 GiB VM-state, 119.2 MiB/s
2022-12-23 18:22:34 migration active, transferred 337.3 MiB of 8.0 GiB VM-state, 150.1 MiB/s
2022-12-23 18:22:35 migration active, transferred 449.3 MiB of 8.0 GiB VM-state, 115.8 MiB/s
2022-12-23 18:22:36 migration active, transferred 561.5 MiB of 8.0 GiB VM-state, 134.3 MiB/s
2022-12-23 18:22:37 migration active, transferred 669.4 MiB of 8.0 GiB VM-state, 1.2 GiB/s
2022-12-23 18:22:38 migration active, transferred 781.9 MiB of 8.0 GiB VM-state, 114.8 MiB/s
2022-12-23 18:22:39 migration active, transferred 893.5 MiB of 8.0 GiB VM-state, 115.8 MiB/s
2022-12-23 18:22:40 migration active, transferred 1005.4 MiB of 8.0 GiB VM-state, 111.7 MiB/s
2022-12-23 18:22:41 migration active, transferred 1.1 GiB of 8.0 GiB VM-state, 111.7 MiB/s
2022-12-23 18:22:42 migration active, transferred 1.2 GiB of 8.0 GiB VM-state, 111.7 MiB/s
2022-12-23 18:22:43 migration active, transferred 1.3 GiB of 8.0 GiB VM-state, 114.8 MiB/s
2022-12-23 18:22:44 migration active, transferred 1.4 GiB of 8.0 GiB VM-state, 202.3 MiB/s
2022-12-23 18:22:45 migration active, transferred 1.5 GiB of 8.0 GiB VM-state, 112.7 MiB/s
2022-12-23 18:22:46 migration active, transferred 1.6 GiB of 8.0 GiB VM-state, 114.8 MiB/s
2022-12-23 18:22:47 migration active, transferred 1.7 GiB of 8.0 GiB VM-state, 114.8 MiB/s
2022-12-23 18:22:48 migration active, transferred 1.9 GiB of 8.0 GiB VM-state, 114.9 MiB/s
2022-12-23 18:22:49 migration active, transferred 2.0 GiB of 8.0 GiB VM-state, 117.0 MiB/s
2022-12-23 18:22:50 migration active, transferred 2.1 GiB of 8.0 GiB VM-state, 114.8 MiB/s
2022-12-23 18:22:51 migration active, transferred 2.2 GiB of 8.0 GiB VM-state, 1.2 GiB/s
2022-12-23 18:22:52 migration active, transferred 2.3 GiB of 8.0 GiB VM-state, 589.4 MiB/s
2022-12-23 18:22:53 migration active, transferred 2.4 GiB of 8.0 GiB VM-state, 511.3 MiB/s
2022-12-23 18:22:54 migration active, transferred 2.5 GiB of 8.0 GiB VM-state, 116.0 MiB/s
2022-12-23 18:22:55 migration active, transferred 2.6 GiB of 8.0 GiB VM-state, 114.8 MiB/s
2022-12-23 18:22:56 migration active, transferred 2.7 GiB of 8.0 GiB VM-state, 116.0 MiB/s
2022-12-23 18:22:57 migration active, transferred 2.8 GiB of 8.0 GiB VM-state, 117.0 MiB/s
2022-12-23 18:22:58 migration active, transferred 2.9 GiB of 8.0 GiB VM-state, 111.7 MiB/s
2022-12-23 18:22:59 migration active, transferred 3.1 GiB of 8.0 GiB VM-state, 114.8 MiB/s
2022-12-23 18:23:00 migration active, transferred 3.2 GiB of 8.0 GiB VM-state, 111.7 MiB/s
2022-12-23 18:23:01 migration active, transferred 3.3 GiB of 8.0 GiB VM-state, 113.7 MiB/s
2022-12-23 18:23:02 migration active, transferred 3.4 GiB of 8.0 GiB VM-state, 112.7 MiB/s
2022-12-23 18:23:03 migration active, transferred 3.5 GiB of 8.0 GiB VM-state, 114.8 MiB/s
2022-12-23 18:23:04 migration active, transferred 3.6 GiB of 8.0 GiB VM-state, 114.8 MiB/s
2022-12-23 18:23:05 migration active, transferred 3.7 GiB of 8.0 GiB VM-state, 112.7 MiB/s
2022-12-23 18:23:07 average migration speed: 228.0 MiB/s - downtime 20 ms
2022-12-23 18:23:07 migration status: completed
2022-12-23 18:23:10 migration finished successfully (duration 00:00:41)
TASK OK
Die angezeigte Geschwindigkeit erweckt in mir den Verdacht, dass die Daten über das flasche Interface geschickt werden.
Der RAM sollte doch deutlich schneller als mit rund 120MiB/s übertragen werden

Der Switch meint, dass da mehr gehen müsste
Po1 "PVE01" connected 1 full 40G N/A
Po2 "PVE02" connected 1 full 20G N/A
Po3 "PVE03" connected 1 full 20G N/A

Hier die Cluster Join information
1671816460164.png
So Sieht das Netzwerksetup aus

1671816713654.png
Da ja eigentlich auch der Link für das Clustermanagement hergestellt wird, gehe ich eigentlich davon aus, dass wenn ich die Verbindung 172.16.1.103 trenne. Über das Webinterface von 172.16.1.103 auch den anderen Node steuern kann.

Dem ist nicht so. "Kein Route zum Host"
Dass das Interface selbst und die VMs nicht erreichbar sind ist klar.

Hier noch die Netzwerkmessung
root@pve01:~# iperf -c 10.200.10.103
------------------------------------------------------------
Client connecting to 10.200.10.103, TCP port 5001
TCP window size: 85.0 KByte (default)
------------------------------------------------------------
[ 3] local 10.200.10.101 port 39620 connected with 10.200.10.103 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0000-10.0009 sec 10.9 GBytes 9.39 Gbits/sec


root@pve01:~# iperf -c 172.16.1.103
------------------------------------------------------------
Client connecting to 172.16.1.103, TCP port 5001
TCP window size: 85.0 KByte (default)
------------------------------------------------------------
[ 3] local 172.16.1.101 port 59676 connected with 172.16.1.103 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0000-10.0047 sec 1.10 GBytes 943 Mbits/sec
über das "normale" Netz kommt man mit 943Mbits/sec so ziehmlich genau auf 117MiB/s
Gut bei dem 10er Netz hätte ich jetzt die doppelte Geschindigkeit erwartet.

Hat jemand für mich eine Idee wo ich da ansetzten kann?
 
Last edited:
Das lief über den falschen Bond.

Zum einen:
2022-12-23 18:23:07 average migration speed: 228.0 MiB/s - downtime 20 ms

Zum anderen:
Datacenter->Options->Migration Settings->Network ;)
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!