Good. The issue is similar to Proxmox VE itself, not enough votes for a majority.
Ceph has the list of MONs in the /etc/ceph/ceph.conf file for service that are not MONs. So you could remove the sections for the lost MONs and the IP addresses in the `global.mon_host` line. This does not help...
How many Ceph MON instances did you have originally? If all MONs are lost, then you practically lost the Ceph cluster. If you still have one Ceph MON instance present on the nodes that didn't drown, it would be a lot better.
No, that deals only with the Proxmox VE cluster. Ceph is its own...
You will have to remove the old nodes from the Proxmox VE cluster https://pve.proxmox.com/pve-docs/pve-admin-guide.html#_remove_a_cluster_node
Setting the Expected votes to a number you can actually achieve first can be useful: pvecm expected 3
After that you can re-add the replaced nodes to...
More info is needed.
Do you still have any Ceph MONs around or were they lost too?
Is the Proxmox VE cluster itself up and running with the replaced nodes?
Quorum for Proxmox VE and Ceph are two distinct things!
A 10Gbit connection can already be a bottleneck in a Ceph cluster if you have somewhat fast disks. See our last benchmark whitepaper.
If 5ms RTT is fast enough is something I cannot say as that really depends on your expectations. Keep in mind, that whenever a client, in our case a VM, writes...
Du könntest dir noch rbd bench anschauen. Da benchmarkt man dann nicht nur den Object-Layer, sondern den RBD layer.
Aber wenn die Performance ausreichend ist und der verfügbare Speicherplatz wichtiger ist, dann nehmt mal einen EC pool. Falls man dann merkt, dass das in der Praxis doch zu langsam...
Wenn die OSDs sehr gleichmäßig voll sind, sollte der Nutzbare Speicher bei 3/2 sich in dem Rahmen abspielen.
Je nach Workload ist die Performance evlt. nicht ganz so gut. Aber dafür ist mehr Netto vom Bruttospeicher verfügbar.
EC Pools sind generell weniger flexibel as replicated. D.h., bei...
Both sites are included in the day-to-day. Ergo, the latency and bandwidth between both sites need to be fast and low. A write is only ACKed once you have 2 replicas written in each site.
A single Ceph cluster spanning multiple sites is therefore only useful if they are closely together. Think...
PBS got nothing to do with that, or am I missing something? Another approach would be to use two PBS instances in each site and remote sync the backups. Then you can (live) restore in the disaster case. Or do regular restores in the DR site.
Setting up replication between PVE clusters is...
Meinst du einen geplanten shutdown/maintenance-mode? Ansonsten wird das mit lokalen Disk Images schwer.
Hat die VM auf dieser Node irgendwelche Disken auf die sie zugreifen kann? Bzw. wie sie die VM config aus?
Wenn alle Images noch auf der alten Node liegen, kannst du die VM (ausgeschalten)...
Siehst du die infos aber für die anderen OSDs?
Die Infos könntest du dann gegen die liste an LVs auf der DB SSD diese ist. Mit lsblk sollten zB alle LVs angezeigt werden.
Jup, dann war da wohl nicht mehr viel RAM frei, und VMs haben meist viel und sind deshalb ein gutes Ziel für den OOM Killer ;)
KSM sharing ist nett und praktisch, führt aber zu deutlich dynamischeren Verhalten wie du erlebt hast.
Also eventuell mal überdenken wie sehr sich die VMs wirklich...
Siehst du in den Syslogs was vom OOM KIller? Das wäre ein Hinweis, dass nicht genug RAM am Host vorhanden ist. Bei 40GiB im KSM könnte dann zB der Grund sein, dass ein VM plötzlich deutlich andere RAM Inhalte hat, die nicht mehr mit anderen VMs geshared werden können.
you can get older virtio ISOs from the fedora project to see if they contain win7 drivers. the important part is to have the dummy disk using (virtio)scsi to show up in the disk mgmt of Windows before you detach & remove it. Only then can you power down the VM, switch the main disk to scsi and...
Checkout the post migration steps: https://pve.proxmox.com/wiki/Migrate_to_Proxmox_VE#Post_Migration
there is a link to the guide on how to switch Windows over to virtio drivers. For the dracut machine, it should work by booting into the rescue image that contains all drivers and rebuilding the...
Technically a thin LVM consists of 2 LVs in a thick LVM, which are then used to store the metadata and data. The LVM tooling will usually hide that fact nicely, but you can see it with lsblk for example.
You could probably create a new thin LVM inside the thick LVM manually, add a matching...
Ad hoc, nach dem Ausschlussverfahren. Du sieht in den OSD Details (Ceph -> OSD) die Devices welche die OSD verwendet. Da sind auch alle LVs gelistet.
Wahrscheinlich gibts auch elegantere Varianten, aber die fallen mir gerade nicht ein.
Du kannst den Mountpoint einem anderen Container zuweisen (Volume Action -> Reassign Owner)
Alle in der Config referenzierten MPs/virtuellen Disks werden mit dem Gast gelöscht. Wenn du die entsprechende Option beim Löschen anklickst, werden zusätzlich auch alle Storage nach disk images mit...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.