Ich hab da mal eine Frage an der ich nicht weiterkomme, aber bevor ich die Fragen stelle, hier zuerst mal ein Überblick darüber was die Grundlagen sind.
3 PVE mit Dual 40G QSFP+ Verbindung
2 Switches von FS (S8550-6Q2C) mit AGG auf den beiden 100Gbit Ports (so dass die Swichtes verbunden sind und 200Gbit Transfer aushalten können)
1 Storage von Dell (ME5024) welches via Breakout Cable ( 40G mit 4*10Gbit ) an das Storage angeschlossen sind
Storage ist via ISCSI eingebunden, Multipath ist aktiv und zeigt auch im multipath -ll keine Fehler.
MTU ist auf allen Geräten auf 9000 bzw. auf Jumbo Frames eingestellt ( auf der Karte, Bond und Bridge @pve)
Erkenntnisse
Zwischen den PVE Hosts komme ich auf 30-35Gbit Transferraten (iperf3) - von local zu local übertragene Disks schreiben im Schnitt (bei grossen Disks) 1GByte / sec - kleinere Disks sind auch schneller (Cache Thema SSD).
Zwischen PVE und Storage im schreibenden Modus (wenn ich die Disk da rein schiebe) selbes wie bei den PVE untereinander
Aber wenn ich vom Storage eine Disk auf den lokalen PVE übertragen will, dann kriege ich nur zwischen 20-125MByte/sec.
Ich finde einfach den Grund nicht, warum das so ist - und ich verzweifle langsam, weil das ganze sich natürlich auch im Backup so verhält und ich so auch nicht das Storage in nützlicher Frist evakuieren kann (was ich eben tun sollte, damit ich es nochmals neu konfigurieren kann von linear auf virtual).
Das einzige was ich gesehen habe ist, dass im journalctl sehr oft die Meldungen erscheinen
Hat mir jemand einen Tipp warum das so "langsam" ist? Bzw. wie ich herausfinde wo der verfluchte Bottleneck ist?
3 PVE mit Dual 40G QSFP+ Verbindung
2 Switches von FS (S8550-6Q2C) mit AGG auf den beiden 100Gbit Ports (so dass die Swichtes verbunden sind und 200Gbit Transfer aushalten können)
1 Storage von Dell (ME5024) welches via Breakout Cable ( 40G mit 4*10Gbit ) an das Storage angeschlossen sind
Storage ist via ISCSI eingebunden, Multipath ist aktiv und zeigt auch im multipath -ll keine Fehler.
MTU ist auf allen Geräten auf 9000 bzw. auf Jumbo Frames eingestellt ( auf der Karte, Bond und Bridge @pve)
Erkenntnisse
Zwischen den PVE Hosts komme ich auf 30-35Gbit Transferraten (iperf3) - von local zu local übertragene Disks schreiben im Schnitt (bei grossen Disks) 1GByte / sec - kleinere Disks sind auch schneller (Cache Thema SSD).
Zwischen PVE und Storage im schreibenden Modus (wenn ich die Disk da rein schiebe) selbes wie bei den PVE untereinander
Aber wenn ich vom Storage eine Disk auf den lokalen PVE übertragen will, dann kriege ich nur zwischen 20-125MByte/sec.
Ich finde einfach den Grund nicht, warum das so ist - und ich verzweifle langsam, weil das ganze sich natürlich auch im Backup so verhält und ich so auch nicht das Storage in nützlicher Frist evakuieren kann (was ich eben tun sollte, damit ich es nochmals neu konfigurieren kann von linear auf virtual).
Das einzige was ich gesehen habe ist, dass im journalctl sehr oft die Meldungen erscheinen
Code:
Nov 14 14:55:00 pxhv1 kernel: sd 20:0:0:1: alua: supports implicit TPGS
Nov 14 14:55:00 pxhv1 kernel: sd 20:0:0:1: alua: device naa.600c0ff0005d2de7b5622f6701000000 port group 1 rel port 6
Nov 14 14:55:00 pxhv1 kernel: sd 21:0:0:0: alua: supports implicit TPGS
Nov 14 14:55:00 pxhv1 kernel: sd 21:0:0:0: alua: device naa.600c0ff0005d2f80b4622f6701000000 port group 0 rel port 1
Nov 14 14:55:00 pxhv1 kernel: sd 21:0:0:1: alua: supports implicit TPGS
Nov 14 14:55:00 pxhv1 kernel: sd 21:0:0:1: alua: device naa.600c0ff0005d2de7b5622f6701000000 port group 0 rel port 1
Nov 14 14:55:00 pxhv1 kernel: sd 22:0:0:0: alua: supports implicit TPGS
Nov 14 14:55:00 pxhv1 kernel: sd 22:0:0:0: alua: device naa.600c0ff0005d2f80b4622f6701000000 port group 1 rel port 8
Nov 14 14:55:00 pxhv1 kernel: sd 22:0:0:1: alua: supports implicit TPGS
Nov 14 14:55:00 pxhv1 kernel: sd 22:0:0:1: alua: device naa.600c0ff0005d2de7b5622f6701000000 port group 1 rel port 8
Hat mir jemand einen Tipp warum das so "langsam" ist? Bzw. wie ich herausfinde wo der verfluchte Bottleneck ist?
Last edited: