no. if you lose three disks on three separate nodes AT THE SAME TIME, the pool will become read only and you'll lose all payload that had placement group with shards on ALL THREE of those OSDs.
BUT here's the thing- the odds of that happening...
You will only lose the affected PGs and their objects. This will lead to corrupted files (when the data pool is affected) or a corrupted filesystem (if the metadata pool is affected). Depending on which directory is corrupted you may not be able...
You may be able to extract the cluster map from the OSDs following this procedure: https://docs.ceph.com/en/squid/rados/troubleshooting/troubleshooting-mon/#recovery-using-osds
But as you also changed the IP addresses you will have to change...
IMHO you do not need pool separation between VMs for security reasons. You may want to configure multiple pools for quota or multiple Proxmox clusters. Or if you want to set defferent permissions for users in Proxmox.
AFAIK Proxmox does not show...
Du hast 2 Bridges im gleichen Netz? Warum machst du das? Nutzt dein Switch Spanning Tree oder Loop Protection?
Erklär mal bitte was du vorhast und wie das genau verkabelt ist, dann können wir eventuell helfen.
Wie genau ist die Replikation konfiguriert?
Ich hoffe so betreibt ihr das nicht Produktiv.
Da ist schon mal ein echtes Problem. bei ceph immer nur 3 oder 5 Monitor konfigurieren.
Euer Quorumrechner muss natürlich auch Monitor für Ceph spielen...
Ist das mit Kenntnis der damit verbundenen Risiken so eingerichtet worden?
Mir läuft es jedenfalls eiskalt den Rücken runter, aber ich bin kein Ceph Spezialist (und habe auch noch nie mit zwei Datacentern hantiert).
@UdoB ist nicht sein erster Treffer bzgl. "Subject". Mich irritiert diese unprofessionelle Schreibart auch, zumal ich da vor einiger Zeit in einem anderen Thread von ihm eine sehr unprofessionelle Art und Ausdrucksweise gesehen habe, gegenüber...
Three is the absolute minimum. As soon as anything "bad" happens with one node you are degraded. And you stay degraded as there is no space for self-healing...
Also...
Wenn du unter PVE eine virtuelle Festplatte vergrößerst passiert nur genau das. Du musst dann in der VM noch die Partition und das Dateisystem darauf vergrößern. Bei einem CT tut PVE den Rest alleine. Die Arbeit auf PVE Seite ist nach der...
Ich würde empfehlen Bugs die relevant für dich sind via Add me to CC list zu abonnieren. Einerseits bekommst du so mit wenn sich etwas tut und andererseits bekommen die Maintainer auch eine Nachricht über das gestiegene Interesse.
Es stellt sich für mich die Frage nach der Tiefe der "Config", die Du mitnehmen möchtest.
Wie soll da bei jedermann das Richtige sein?
Bei meinen Setups sind es auch die Paket um ZFS, die Cronjobs und die eigenen Scripte, das Tuning am System.
Wenn du deine VM eh schon auf NFS hast, spare dir doch einfach den Import.
Weiter unten in der Anleitung steht, wie du die VMDKs an eine Proxmox VM hängen kannst.
Wenn du mit der Anleitung nicht klar kommst, schau dir auf YT mein Video von der...
The problem is, and I've read this somewhere else on the forums: that clustering only officially 100% works with nodes being on the same physical layer 2 network
since corosync 3.X, it's use unicast udp (before it was multicast), so it's...