Danke für die Info !
Das ergibt durchaus Sinn... Werde ich lieber mal umbauen und das Corosync in ein anderes Netz stecken.
Was mich aber wundert ist das die Corosync Meldungen erst so gehäuft auftreten wenn ein Node im Cluster aus ist und noch schlimmer das dann andere Nodes einfach...
Hmmm...nur warum?
Weil das Routing dann nicht richtig weiß über welches Interface er nun gehen soll weil das gleiche Netz über 2 Interface geroutet werden?
root@pve02:~# ip route show
default via 172.22.10.1 dev bond0 onlink
172.22.10.0/24 dev bond0 proto kernel scope link src 172.22.10.151...
Aber hätte das solch einen Effekt zur Folge? Also das wenn 1 Host neustartet...das dann andere Nodes mit neustarten?
Das komische ist..das pve02 noch die alte Proxmox Version hat...pve04 jedoch auch automatisch neugestartet wurde aber bereits auf der neuen Version ist.
pve06 ist ebenfalls neue...
das sollte mich aber echt wundern.
Ja wir haben das alles getrennt und arbeiten da mit Bondings auf den NICs des Hosts.
Wir haben da 2x 1GE Bond für den AdminZugang...quasi für SSH und das Webinterface
dann 2x 1GE NUR für Corosync
2x 10GE für internes und INet Traffic der VMs und 2x 10GE für...
Hallo,
HA ist aktiv...jedoch sind aktuell keine VMs dort eingerichtet da eine Livemigration mit aktivem HA derzeit nicht klappt. Der HA stößt die Migration zwar an...passiert aber nix. Manuelle Versuche eine VM mit aktivem HA zu migrieren schlagen mit Error 255 fehl.
Wenn ich die VM aus dem HA...
Hallo zusammen,
wir haben ein Proxmox Cluster mit 4 Hardware Nodes (HP DL360 G9) am Laufen.
Soweit alles prima!
Als Shared Storage für die VMs nutzen wir eine HP 3PAR mit jeweils eigenen SAN Volumes pro Node. Diese werden mit einem GlusterFS gleich gehalten.
Funktioniert soweit super.
Nun bin...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.