Die kurze Antwort wäre ja, die lange Antwort mit einem aber und Details.Wäre ‚balance-alb‘ beim ‚normalen‘ Linux Bond nicht damit gleichzusetzen?
Ja, sehe ich auch so.Bei 3 Servern würde ich diese für ceph direkt verkabeln und Switches nur für extern verwenden, eine Fehlerquelle weniger
Habe ich so tatsächlich gerade umgesetzt – nicht bei uns, bei einem Kunden – und das läuft (natürlich!) problemlos. Bei mehr als drei Servern wird es jedoch schnell teuer (weil man ja n-1 NICs je Server bräuchte)... Ich würde davon ausgehen, dass wir irgendwann dieses Jahr noch aufstocken werden, daher wäre mir die Alternative natürlich lieberBei 3 Servern würde ich diese für ceph direkt verkabeln und Switches nur für extern verwenden, eine Fehlerquelle weniger
UniFi *hust* – es wird Zeit, dass die MLAG können...Was für Switches hast du, dass die kein Stack können, sowas gibt es doch gar nicht mehr.
Eventuell können die ja MLAG, das wäre sogar verfügbarer als Stack.
So machen wir das auch bei "kleinen" Clustern.Du kannst einfach ein Active-Backup Bond machen. Das ist schon mal verfügbarer für Ceph.
Was für Switches hast du, dass die kein Stack können, sowas gibt es doch gar nicht mehr.
Eventuell können die ja MLAG, das wäre sogar verfügbarer als Stack.
active-backup
. Aber ich habe mich auch schon gefragt bzw. anfangs auch getestet, wie es mit balance-tlb
und balance-alb
läuft.dd
, hat die Geschwindigkeit von Ceph spürbar geschwankt. Hat man bei der Auslastung der Interfaces und auch mit ceph -s
deutlich gesehen. Erst beim Wechsel zurück auf active-backup
hat sich alles wieder eingependelt und die Geschwindigkeit blieb konstant.Da hast du Glück gehabt, dass dir dein Setup um die Ohren geflogen ist.Wir haben bei uns ein ähnliches Setup. 5 Server, Ceph, 2 Switches die nicht gestacked sind.
Je Server 4x 25G. 2x für Ceph, 2x für VM-Traffic.
Aktuell läuft das Setup mitactive-backup
. Aber ich habe mich auch schon gefragt bzw. anfangs auch getestet, wie es mitbalance-tlb
undbalance-alb
läuft.
Mit den beiden letzteren hatte ich tatsächlich ein etwas merkwürdiges Verhalten. Bei "Lasttests" in einer VM mitdd
, hat die Geschwindigkeit von Ceph spürbar geschwankt. Hat man bei der Auslastung der Interfaces und auch mitceph -s
deutlich gesehen. Erst beim Wechsel zurück aufactive-backup
hat sich alles wieder eingependelt und die Geschwindigkeit blieb konstant.
Habt ihr Erfahrung damit sammeln können? Wie läuft es bei euch?
Okay, interessant. Warum aber steht dann z.B. in der Doku auf https://www.kernel.org/doc/Documentation/networking/bonding.txt:Da hast du Glück gehabt, dass dir dein Setup um die Ohren geflogen ist.
Die Load Balance Optionen sind für static LAGs auf den Switches gedacht. Also Single oder Stack.
Also Active/Backup lassen oder Switches mit MLAG Support benutzen und dann LACP nutzen.
802.3ad
steht ja explizit dabei, dass das der Switch unterstützen muss.