Hallo,
ich betreibe aktuell Proxmox 5.4-13 mit 3 Nodes
Alle nodes sind identisch ausgerüstet und beherbergen auch CEPH.
Jede Node hat aktuell 4 OSDs auf jeweils einer 1 TB SSD.
Ceph läuft 3/2
PlacementGroups habe ich auf 896 schrittweise von 256 hochgeschraubt.
Hier hat mich leider die Ceph Dokumentation schon etwas "verarscht". Die schreiben:
-----------------------------------
it is mandatory to choose the value of pg_num because it cannot be calculated automatically. Here are a few values commonly used:
-----------------------------------
Was bei meinen derzeit 12 und künftig 15 OSD´s also 1024 PG´s sein sollten.
Da macht aber ProxMox nicht mit, sondern wirft eine Fehlermeldung sobald ich mehr als die oben stehenden 896 PG´s einstellen will.
Da wird gerechnet 896PG´s * 3 Nodes /12 OSDs= 224 PG/OSD
Irgendwo ist wohl ein Limit bei 250 PG´s/OSD eingestellt was ich mit dem nächsten Schritt auf 1024 PG´s überschreitej würde bei derzeit 12 OSD´s.
Seis drum.
Also weiter:
Ich habe derzeit eine Auslastung von 69% meines CEPH Pools
Deshalb möchte ich gerne das CEPH um weitere OSD´s erweitern.
Ich habe jetzt3 weitere SSD a 2TB besorgt, wovon ich gerne je Node eine verbauen würde.
Nun zu meinen Fragen wo ich auf Eure Hilfe hoffe:
1) Beim Erweitern um eine weitere OSD / Host: Muss ich die 3 Node gleichzeitig erweitern, oder erst die erste Node und dann warten bis rewight stattgefunden hat, dann die 2. Node etc...
2) Ich habe (leider erst jetzt) gelesen, dass die OSD´s in einem Pool möglichst gleichgroß sein sollten. Shit. Jetzt habe ich halt 12* 1 TB und 3 * 2TB. Kann ich mein Ceph trotzdem damit erweitern?
3) Wenn ja: Muss ich für die 2TB SSDs dann das Weight auf 2 stellen (weil ja doppelt so groß wie die restlichen OSDs)?
4) Ergeben sich dadurch irgendwelche Nachteile?
5) ich habe auch gelesen, dass man neue OSD´s zunächst mit einem Weight von 0 einbinden soll um dann schrittweise (0.2) auf 1 zu weighten. Habt ihr hier Erfahrungen dazu?
6) Wenn ich das so durchgezogen habe und dann 3 identische Nodes mit jeweils 5 OSD´s habe (4 * 1TB + 1 *2 TB) - habe ich dann njoch die Ausfallsicherheit dass mein Ceph operational bleibt bei Ausfall eines gesamten Nodes?
Sorry für die vielen Fragen, aber ich möchte das gerne vorher klären, bevor ich unwissentlich alles zerschiesse hier.
Vielen Dank & viele Grüße,
Kai
ich betreibe aktuell Proxmox 5.4-13 mit 3 Nodes
Alle nodes sind identisch ausgerüstet und beherbergen auch CEPH.
Jede Node hat aktuell 4 OSDs auf jeweils einer 1 TB SSD.
Ceph läuft 3/2
PlacementGroups habe ich auf 896 schrittweise von 256 hochgeschraubt.
Hier hat mich leider die Ceph Dokumentation schon etwas "verarscht". Die schreiben:
-----------------------------------
it is mandatory to choose the value of pg_num because it cannot be calculated automatically. Here are a few values commonly used:
- Less than 5 OSDs set pg_num to 128
- Between 5 and 10 OSDs set pg_num to 512
- Between 10 and 50 OSDs set pg_num to 1024
-----------------------------------
Was bei meinen derzeit 12 und künftig 15 OSD´s also 1024 PG´s sein sollten.
Da macht aber ProxMox nicht mit, sondern wirft eine Fehlermeldung sobald ich mehr als die oben stehenden 896 PG´s einstellen will.
Da wird gerechnet 896PG´s * 3 Nodes /12 OSDs= 224 PG/OSD
Irgendwo ist wohl ein Limit bei 250 PG´s/OSD eingestellt was ich mit dem nächsten Schritt auf 1024 PG´s überschreitej würde bei derzeit 12 OSD´s.
Seis drum.
Also weiter:
Ich habe derzeit eine Auslastung von 69% meines CEPH Pools
Deshalb möchte ich gerne das CEPH um weitere OSD´s erweitern.
Ich habe jetzt3 weitere SSD a 2TB besorgt, wovon ich gerne je Node eine verbauen würde.
Nun zu meinen Fragen wo ich auf Eure Hilfe hoffe:
1) Beim Erweitern um eine weitere OSD / Host: Muss ich die 3 Node gleichzeitig erweitern, oder erst die erste Node und dann warten bis rewight stattgefunden hat, dann die 2. Node etc...
2) Ich habe (leider erst jetzt) gelesen, dass die OSD´s in einem Pool möglichst gleichgroß sein sollten. Shit. Jetzt habe ich halt 12* 1 TB und 3 * 2TB. Kann ich mein Ceph trotzdem damit erweitern?
3) Wenn ja: Muss ich für die 2TB SSDs dann das Weight auf 2 stellen (weil ja doppelt so groß wie die restlichen OSDs)?
4) Ergeben sich dadurch irgendwelche Nachteile?
5) ich habe auch gelesen, dass man neue OSD´s zunächst mit einem Weight von 0 einbinden soll um dann schrittweise (0.2) auf 1 zu weighten. Habt ihr hier Erfahrungen dazu?
6) Wenn ich das so durchgezogen habe und dann 3 identische Nodes mit jeweils 5 OSD´s habe (4 * 1TB + 1 *2 TB) - habe ich dann njoch die Ausfallsicherheit dass mein Ceph operational bleibt bei Ausfall eines gesamten Nodes?
Sorry für die vielen Fragen, aber ich möchte das gerne vorher klären, bevor ich unwissentlich alles zerschiesse hier.
Vielen Dank & viele Grüße,
Kai