English:
Hi all!
I'm working on this since 2 months and could narrow it down a bit today .
The setup is
HP ML350 G10 and an IBM 1746 Storage connected via 8GBit FC.
The HP contains 2x Qlogic QLE2562 HBAs.
To the Problem:
When running on Proxmox 6 on the software level of the downloaded ISO or totally upgraded, both the multipath active and ghost are failing at the same time when moving one lvm from one LUN to the other.
When running on Proxmox 5 on the software level of the downloaded ISO the Multipath is working without problems and with the expected performance.
When running on Proxmox 5 on the totally upgraded patchlevel the same problems like on the Proxmox 6 installation show up.
I upgraded the pakets from the Iso level to the actual patchlevel manually and found the following 3 pakages as the cause:
pve-qemu-kvm libpve-common-perl qemu-server.
after step by step updates following a reboot each time i narrowed it dow. I could update pve-qemu-kvm and libpve-common-perl up to the actual patchlevel - libpve-common-perl 5.0-54 and pve-qemu-kvm 3.0.1-4 .
The Problem occurs as soon as i update qemu-server to 5.0-54 and disappears when i downgrade to 5.0.53.
multipath.conf was configured from minimal to advanced followed by detailed testing. Actually I'm using a minimal config of multipath.conf.
Besides I tested a ML350 G8 with a second identic storage and with 4Gbit HBAs and a FC switch.
Behaviour in this config and crossconfigs of the hardware stays the same.
because I want to work on buster and do updates and upgrades I'm thankful for any ideas and advices.
Thanks!
Alex
German:
Hallo zusammen
Ich beschäftige mich jetzt schon seit 2 Monaten mit dem Problem und heute konnte ichs eingrenzen.
Setup ist wie folgend
HP ML350 G10 und eine IBM 1746 Storage verbunden mit 8GBit FC.
Im HP sind 2x Qlogic QLE2562 HBAs verbaut.
Nun zum Problem:
Beim Betrieb mit Proxmox 6 auf level des heruntergeladenem ISO oder auch komplett aktualisiert failed sowohl activ als auch ghost beim verschieben einer lvm von einer LUN auf die andere.
Beim Betrieb mit Proxmox 5 auf level des heruntergeladenem ISO funktioniert der Multipath einwandfrei und mit zu erwartender Performance.
Beim Betrieb mit Proxmox 5 auf aktuellem Pathlevel zeigt sich das gleiche Problem wie auf Proxmox 6.
Ich habe nun die aktualisierung der Pakete vom Iso level auf das aktuelle Patchlevel von Hand vorgenommen und hat als Verursacher die 3 Pakete
pve-qemu-kvm libpve-common-perl qemu-server herausfiltern können.
nach schrittweisen Updates gefolgt von jeweiligem Serverreboot hab ich es nun soweit eingegrenzt das ich pve-qemu-kvm und libpve-common-perl bis zum aktuellen Patchlevel hochheben kann - libpve-common-perl 5.0-54 und pve-qemu-kvm 3.0.1-4 .
Das Problem tritt auf sobald ich das Paket qemu-server von 5.0-53 auf 5.0-54 hochhebe und verschwindet wieder wenn ich auf 5.0.53 downgrade.
multipath.conf wurde von minimal bis sehr ausführlich getestet. Bei den aktuellen Tests Minimalkonfiguration.
Getestet wurde weiters mit einem ML350 G8 einer 2. identen Storage und mit 4Gbit HBAs und einem FC Switch.
Verhalten bleibt in dieser Konfiguration und auch in Quertests der Hardware gleich.
Da ich den Server gerne auf Buster betreiben will und nat. auch Updates machen will bitte ich euch daher um Ratschläge.
Danke!
lG
Alex
Hi all!
I'm working on this since 2 months and could narrow it down a bit today .
The setup is
HP ML350 G10 and an IBM 1746 Storage connected via 8GBit FC.
The HP contains 2x Qlogic QLE2562 HBAs.
To the Problem:
When running on Proxmox 6 on the software level of the downloaded ISO or totally upgraded, both the multipath active and ghost are failing at the same time when moving one lvm from one LUN to the other.
When running on Proxmox 5 on the software level of the downloaded ISO the Multipath is working without problems and with the expected performance.
When running on Proxmox 5 on the totally upgraded patchlevel the same problems like on the Proxmox 6 installation show up.
I upgraded the pakets from the Iso level to the actual patchlevel manually and found the following 3 pakages as the cause:
pve-qemu-kvm libpve-common-perl qemu-server.
after step by step updates following a reboot each time i narrowed it dow. I could update pve-qemu-kvm and libpve-common-perl up to the actual patchlevel - libpve-common-perl 5.0-54 and pve-qemu-kvm 3.0.1-4 .
The Problem occurs as soon as i update qemu-server to 5.0-54 and disappears when i downgrade to 5.0.53.
multipath.conf was configured from minimal to advanced followed by detailed testing. Actually I'm using a minimal config of multipath.conf.
Besides I tested a ML350 G8 with a second identic storage and with 4Gbit HBAs and a FC switch.
Behaviour in this config and crossconfigs of the hardware stays the same.
because I want to work on buster and do updates and upgrades I'm thankful for any ideas and advices.
Thanks!
Alex
German:
Hallo zusammen
Ich beschäftige mich jetzt schon seit 2 Monaten mit dem Problem und heute konnte ichs eingrenzen.
Setup ist wie folgend
HP ML350 G10 und eine IBM 1746 Storage verbunden mit 8GBit FC.
Im HP sind 2x Qlogic QLE2562 HBAs verbaut.
Nun zum Problem:
Beim Betrieb mit Proxmox 6 auf level des heruntergeladenem ISO oder auch komplett aktualisiert failed sowohl activ als auch ghost beim verschieben einer lvm von einer LUN auf die andere.
Beim Betrieb mit Proxmox 5 auf level des heruntergeladenem ISO funktioniert der Multipath einwandfrei und mit zu erwartender Performance.
Beim Betrieb mit Proxmox 5 auf aktuellem Pathlevel zeigt sich das gleiche Problem wie auf Proxmox 6.
Ich habe nun die aktualisierung der Pakete vom Iso level auf das aktuelle Patchlevel von Hand vorgenommen und hat als Verursacher die 3 Pakete
pve-qemu-kvm libpve-common-perl qemu-server herausfiltern können.
nach schrittweisen Updates gefolgt von jeweiligem Serverreboot hab ich es nun soweit eingegrenzt das ich pve-qemu-kvm und libpve-common-perl bis zum aktuellen Patchlevel hochheben kann - libpve-common-perl 5.0-54 und pve-qemu-kvm 3.0.1-4 .
Das Problem tritt auf sobald ich das Paket qemu-server von 5.0-53 auf 5.0-54 hochhebe und verschwindet wieder wenn ich auf 5.0.53 downgrade.
multipath.conf wurde von minimal bis sehr ausführlich getestet. Bei den aktuellen Tests Minimalkonfiguration.
Getestet wurde weiters mit einem ML350 G8 einer 2. identen Storage und mit 4Gbit HBAs und einem FC Switch.
Verhalten bleibt in dieser Konfiguration und auch in Quertests der Hardware gleich.
Da ich den Server gerne auf Buster betreiben will und nat. auch Updates machen will bitte ich euch daher um Ratschläge.
Danke!
lG
Alex
Last edited: