Hallo zusammen,
letzte Woche habe ich mein "Spiel Cluster" inkl. Ceph genau nach Anleitung im Wiki von 4.4 auf 5.2.1 aktualisiert. Hat wunderbar funktioniert
Nun habe ich die OSDs nach und nach auf Bluestore umgestellt und dabei gab es Warnmeldungen wie "pool undersized" usw. .. Also habe ich mal geschaut... Der erste Blick sah so aus:
Soweit OK, was auch mit dem übereinstimmt:
Aber hier in der "Pool" Ansicht wirds komisch:
Und bei der Speicherauslastung des Ceph Storage gabs einen "Einbruch am Tag der Umstellung von pve4 auf pve5:
meine ceph config sieht so aus:
und die crushmap:
Kann mir mal jemand auf die Sprünge helfen, was da passiert ist?
Danke + Gruß
Stefan
letzte Woche habe ich mein "Spiel Cluster" inkl. Ceph genau nach Anleitung im Wiki von 4.4 auf 5.2.1 aktualisiert. Hat wunderbar funktioniert
Nun habe ich die OSDs nach und nach auf Bluestore umgestellt und dabei gab es Warnmeldungen wie "pool undersized" usw. .. Also habe ich mal geschaut... Der erste Blick sah so aus:
Soweit OK, was auch mit dem übereinstimmt:
Aber hier in der "Pool" Ansicht wirds komisch:
Und bei der Speicherauslastung des Ceph Storage gabs einen "Einbruch am Tag der Umstellung von pve4 auf pve5:
meine ceph config sieht so aus:
Code:
[global]
auth client required = cephx
auth cluster required = cephx
auth service required = cephx
cluster network = 10.xx.xx.0/24
filestore xattr use omap = true
fsid = xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
keyring = /etc/pve/priv/$cluster.$name.keyring
osd journal size = 5120
osd pool default min size = 1
public network = 10.xx.xx.0/24
mon allow pool delete = true
[osd]
keyring = /var/lib/ceph/osd/ceph-$id/keyring
[mon.proxmox]
host = proxmox
mon addr = 10.xx.xx.20:6789
[mon.proxmox2]
host = proxmox2
mon addr = 10.xx.xx.21:6789
[mon.proxmox3]
host = proxmox3
mon addr = 10.xx.xx.22:6789
und die crushmap:
Code:
# begin crush map
tunable choose_local_tries 0
tunable choose_local_fallback_tries 0
tunable choose_total_tries 50
tunable chooseleaf_descend_once 1
tunable chooseleaf_vary_r 1
tunable chooseleaf_stable 1
tunable straw_calc_version 1
tunable allowed_bucket_algs 54
# devices
device 0 osd.0 class hdd
device 1 osd.1 class hdd
device 2 osd.2 class hdd
device 3 osd.3 class hdd
device 4 osd.4 class hdd
device 5 osd.5 class hdd
device 6 osd.6 class hdd
device 7 osd.7 class hdd
device 8 osd.8 class hdd
# types
type 0 osd
type 1 host
type 2 chassis
type 3 rack
type 4 row
type 5 pdu
type 6 pod
type 7 room
type 8 datacenter
type 9 region
type 10 root
# buckets
host proxmox {
id -2 # do not change unnecessarily
id -5 class hdd # do not change unnecessarily
# weight 2.258
alg straw
hash 0 # rjenkins1
item osd.0 weight 0.450
item osd.7 weight 0.904
item osd.1 weight 0.904
}
host proxmox2 {
id -3 # do not change unnecessarily
id -6 class hdd # do not change unnecessarily
# weight 1.804
alg straw
hash 0 # rjenkins1
item osd.2 weight 0.450
item osd.3 weight 0.450
item osd.6 weight 0.904
}
host proxmox3 {
id -4 # do not change unnecessarily
id -7 class hdd # do not change unnecessarily
# weight 1.804
alg straw
hash 0 # rjenkins1
item osd.4 weight 0.450
item osd.5 weight 0.450
item osd.8 weight 0.904
}
root default {
id -1 # do not change unnecessarily
id -8 class hdd # do not change unnecessarily
# weight 5.866
alg straw
hash 0 # rjenkins1
item proxmox weight 2.258
item proxmox2 weight 1.804
item proxmox3 weight 1.804
}
# rules
rule replicated_ruleset {
id 0
type replicated
min_size 1
max_size 10
step take default
step chooseleaf firstn 0 type host
step emit
}
# end crush map
Kann mir mal jemand auf die Sprünge helfen, was da passiert ist?
Danke + Gruß
Stefan