Wir testen gerade ProxMox als VMWare Ersatz.
Ich habe die Schulungen gemacht und bassierend auf dieser ohne große Probleme ein Cluster mit 3 Nodes und Ceph aufbauen können.
Heute wollte ich unsere ISCSI NAS hinzufügen, aber das hat nicht so ganz geklappt.
Ich konnte auf die LUN zugreifen und nutzen, aber beim Mulitpath ist wohl etwas schief gelaufen.
Ich bekam beim Storage Move folgenden Fehler mehrmahls für verschiedene Festplatten:
Ich dachte, ok mach ich erstmal alles wieder runter, Mulitpath und die ISCSI Targets entfernt und einen der Hosts neu gestartet.
Nun nach einem Neustart kommen die CEP OSDs nicht mehr hoch, entweder kann ich Sie starten, bleiben aber rot oder ich bekomme folgende Fehlermeldung:
Ich habe Testweise eine OSD zerstört, kann diese dann aber auch nicht mehr mit create OSD neu anlegen, da mir die Festplatte nicht einmal angezeigt wird.
Aus meiner Sicht habe ich wohl die Zugriffe verändert, kenne mich aber zu wenig aus um zu wissen wo genau ich nun schauen muss. Im schmlimmsten Fall muss ich PVE neu aufsetzten.
Jemand eine Idee was ich machen kann?
Ich habe die Schulungen gemacht und bassierend auf dieser ohne große Probleme ein Cluster mit 3 Nodes und Ceph aufbauen können.
Heute wollte ich unsere ISCSI NAS hinzufügen, aber das hat nicht so ganz geklappt.
Ich konnte auf die LUN zugreifen und nutzen, aber beim Mulitpath ist wohl etwas schief gelaufen.
Ich bekam beim Storage Move folgenden Fehler mehrmahls für verschiedene Festplatten:
WARNING: Device mismatch detected for ceph-8da701f2-b1cc-445c-8559-372a463525c3/osd-block-690c4705-a177-4bad-84b8-16732433cc73 which is accessing /dev/sdf instead of /dev/mapper/mpathf.
Ich dachte, ok mach ich erstmal alles wieder runter, Mulitpath und die ISCSI Targets entfernt und einen der Hosts neu gestartet.
Nun nach einem Neustart kommen die CEP OSDs nicht mehr hoch, entweder kann ich Sie starten, bleiben aber rot oder ich bekomme folgende Fehlermeldung:
Job for ceph-osd@10.service failed because the control process exited with error code.
See "systemctl status ceph-osd@10.service" and "journalctl -xeu ceph-osd@10.service" for details.
TASK ERROR: command '/bin/systemctl start ceph-osd@10' failed: exit code 1
Ich habe Testweise eine OSD zerstört, kann diese dann aber auch nicht mehr mit create OSD neu anlegen, da mir die Festplatte nicht einmal angezeigt wird.
Aus meiner Sicht habe ich wohl die Zugriffe verändert, kenne mich aber zu wenig aus um zu wissen wo genau ich nun schauen muss. Im schmlimmsten Fall muss ich PVE neu aufsetzten.
Jemand eine Idee was ich machen kann?
Last edited: