Moin Team,
ich habe erfolglos versucht meinen CEPH Cluster umzuziehen auf einen neuen Adapter.
Wir haben nur einen Ceph Cluster und darin nur einen Pool.
Das alte Vorgehen war:
Nach 3 Monitoren habe ich wohl dann das Qurum verloren und alles war eingefroren.
Wir haben uns nun zusammen gesetzt und ein neues, hoffentlich besseres Vorgehen ersonnen:
Könnte das funktionieren? Wie wechselt man denn für den gesamten CEPH Stack einmal das Netzwerk, wenn nicht so?
Ich wäre für jeden Tipp dankbar!
mfg Florian.
ich habe erfolglos versucht meinen CEPH Cluster umzuziehen auf einen neuen Adapter.
Code:
6 Server, mit 2xGbit und 2xKarten je 2 Ports 100Gbit.
vmbr0 hält ein Bond0 aus den Gigabit Interfaces.
vmbr1 hält ein Bond1 zwei 100 Gigabit Interfaces.
vmbr2 hält ein Bond2 aus den restlichen 100 Gigabit Interfaces.
Wir haben nur einen Ceph Cluster und darin nur einen Pool.
Das alte Vorgehen war:
Code:
1: Die Netzwerke (Cluster, Public) ändern auf neues Netzwerk, speichern der CEPH.cfg
2: Einzelnes löschen der MOnitore und neu erstellen, einen zur Zeit.
Nach 3 Monitoren habe ich wohl dann das Qurum verloren und alles war eingefroren.
Wir haben uns nun zusammen gesetzt und ein neues, hoffentlich besseres Vorgehen ersonnen:
Code:
1. 100G-Netz mit eigenem, beidseitig routbaren IPV6-Subnetz (getestet) zur Verfügung stellen (Florian) -Storage-Backend-Netz
1.1. - in ProxMox eintragen (für alle PM-Nodes)
1.2. - incl. der neuen (DNS/hosts) Hostnames-für-die-neuen-100G-Interfaces
2. alle VMs stoppen (RBD-Konnektor; VM-Daten-Integrität)
2.1. - Ist der RBD-Konnektor dann editierbar (MON-Einträge) ?
2.2. (Das ist doch nur der Eintrag in der Storage.cfg? Löschen und neu erstellen wenn wir mit dem Umzug fertig sind?)
3. in (PVE)ceph.conf neues Cluster-Storage-Netz eintragen
4. Umziehen einzelner OSDs auf das neue 100G-Netz
4.1. - erst auf einem OSD-Host
4.2. - dann ein anderer Host
4.3. - dann alle restlichen OSDs
5. Reduktion auf drei Monitore
6. neues PublicNet (100G) in ceph.conf ändern (alte MONs brauchen zur Laufzeit die ceph.conf nicht)
7. mit Proxmox einen weitern MON erzeugen, der dann im neuen Netz arbeitet.
7.1. PM sucht die zum conf-Eintrag passende IP des Server aus
7.2. Aufbau auf Server 4.-6.Monitor im neuen (Public)Net
7.3. Abbau eines alten MON
7.4. Abgebaute Monitore erneut bauen im neuen Netz.
8. den letzten alten Mon abbauen (Zielzustand 5 MONs)
9. in Proxmox: RBD-Client(Konnektor) auf allen PM-Hosts auf den neuen Stand bringen
9.1. Den gelöschten Storage.cfg Eintrag neu erstellen. Oder kommt es dann zu Problemen mit den Keys um die alten RBD zu mounten?
9.2. - Test mit mindestens einer VM vor Freigabe
10. Reboot alle Systeme
Könnte das funktionieren? Wie wechselt man denn für den gesamten CEPH Stack einmal das Netzwerk, wenn nicht so?
Ich wäre für jeden Tipp dankbar!
mfg Florian.