Moin zusammen
Nachdem uns heute leider das Systemlaufwerk eines PVE/Ceph Hosts gestorben ist, habe ich besagten Server aus dem Cluster entfernt, sowohl PVE als auch CEPH.
Der Host taucht nirgendwo mehr auf.
Nach der Neuinstallation habe ich den Host wieder in den PVE Cluster eingefügt und anschließend über die GUI Ceph dort installiert. Dabei wurden keine Fehler gemeldet.
Wenn ich aber die OSDs neu anlegen will, erhalte ich eine Fehlermeldung:
Ceph Status sagt mir:
Was ist denn da los?
Ich bin da jetzt ein wenig ratlos...
Einzig, durch die Neuinstallation von VM-6 unterscheidet sich die PVE-Version. VM-6 hat Version 7.1-6, alle anderen Hosts habe Verson 7.0-11.
Die installierte Ceph-Version ist aber identisch, 16.2.6 (pacific)
Hier die Config files des Clusters:
Nachdem uns heute leider das Systemlaufwerk eines PVE/Ceph Hosts gestorben ist, habe ich besagten Server aus dem Cluster entfernt, sowohl PVE als auch CEPH.
Der Host taucht nirgendwo mehr auf.
Nach der Neuinstallation habe ich den Host wieder in den PVE Cluster eingefügt und anschließend über die GUI Ceph dort installiert. Dabei wurden keine Fehler gemeldet.
Wenn ich aber die OSDs neu anlegen will, erhalte ich eine Fehlermeldung:
root@vm-6:~# ceph-volume lvm prepare --bluestore --data /dev/sda --block.wal /dev/nvme0n1p1 --block.db /dev/nvme0n1p1
Running command: /usr/bin/ceph-authtool --gen-print-key
--> RuntimeError: No valid ceph configuration file was loaded.
Ceph Status sagt mir:
root@vm-6:~# ceph status
Error initializing cluster client: ObjectNotFound('RADOS object not found (error calling conf_read_file)')
Was ist denn da los?
Ich bin da jetzt ein wenig ratlos...
Einzig, durch die Neuinstallation von VM-6 unterscheidet sich die PVE-Version. VM-6 hat Version 7.1-6, alle anderen Hosts habe Verson 7.0-11.
Die installierte Ceph-Version ist aber identisch, 16.2.6 (pacific)
Hier die Config files des Clusters:
root@vm-6:/etc/pve# cat corosync.conf
logging {
debug: off
to_syslog: yes
}
nodelist {
node {
name: vm-1
nodeid: 1
quorum_votes: 1
ring0_addr: 192.168.16.1
}
node {
name: vm-2
nodeid: 2
quorum_votes: 1
ring0_addr: 192.168.16.2
}
node {
name: vm-3
nodeid: 3
quorum_votes: 1
ring0_addr: 192.168.16.3
}
node {
name: vm-4
nodeid: 4
quorum_votes: 1
ring0_addr: 192.168.16.4
}
node {
name: vm-5
nodeid: 5
quorum_votes: 1
ring0_addr: 192.168.16.5
}
node {
name: vm-6
nodeid: 6
quorum_votes: 1
ring0_addr: 192.168.16.6
}
}
quorum {
provider: corosync_votequorum
}
totem {
cluster_name: Langeoog
config_version: 29
interface {
bindnetaddr: 192.168.16.1
ringnumber: 0
}
ip_version: ipv4
secauth: on
version: 2
}
logging {
debug: off
to_syslog: yes
}
nodelist {
node {
name: vm-1
nodeid: 1
quorum_votes: 1
ring0_addr: 192.168.16.1
}
node {
name: vm-2
nodeid: 2
quorum_votes: 1
ring0_addr: 192.168.16.2
}
node {
name: vm-3
nodeid: 3
quorum_votes: 1
ring0_addr: 192.168.16.3
}
node {
name: vm-4
nodeid: 4
quorum_votes: 1
ring0_addr: 192.168.16.4
}
node {
name: vm-5
nodeid: 5
quorum_votes: 1
ring0_addr: 192.168.16.5
}
node {
name: vm-6
nodeid: 6
quorum_votes: 1
ring0_addr: 192.168.16.6
}
}
quorum {
provider: corosync_votequorum
}
totem {
cluster_name: Langeoog
config_version: 29
interface {
bindnetaddr: 192.168.16.1
ringnumber: 0
}
ip_version: ipv4
secauth: on
version: 2
}
root@vm-6:/etc/pve# cat ceph.conf
[global]
auth_client_required = cephx
auth_cluster_required = cephx
auth_service_required = cephx
cluster_network = 192.168.15.0/24
fsid = 39629f5b-df77-441a-a4f0-8fa7eb388c0f
mon_allow_pool_delete = true
mon_host = 192.168.15.2 192.168.15.1 192.168.15.5
osd_journal_size = 51200
osd_pool_default_min_size = 2
osd_pool_default_size = 3
osd_scrub_begin_hour = 20
osd_scrub_end_hour = 6
public_network = 192.168.15.0/24
[client]
keyring = /etc/pve/priv/$cluster.$name.keyring
[mon.vm-1]
public_addr = 192.168.15.1
[mon.vm-2]
host = vm-2
mon_addr = 192.168.15.2:6789
[mon.vm-5]
public_addr = 192.168.15.5
[global]
auth_client_required = cephx
auth_cluster_required = cephx
auth_service_required = cephx
cluster_network = 192.168.15.0/24
fsid = 39629f5b-df77-441a-a4f0-8fa7eb388c0f
mon_allow_pool_delete = true
mon_host = 192.168.15.2 192.168.15.1 192.168.15.5
osd_journal_size = 51200
osd_pool_default_min_size = 2
osd_pool_default_size = 3
osd_scrub_begin_hour = 20
osd_scrub_end_hour = 6
public_network = 192.168.15.0/24
[client]
keyring = /etc/pve/priv/$cluster.$name.keyring
[mon.vm-1]
public_addr = 192.168.15.1
[mon.vm-2]
host = vm-2
mon_addr = 192.168.15.2:6789
[mon.vm-5]
public_addr = 192.168.15.5