Search results

  1. aaron

    Restore Nodes after dead of quorum!

    Do you only have the MONs that still exist in the monmap if you print it again? Are the MON services up and running?
  2. aaron

    Restore Nodes after dead of quorum!

    Good. The issue is similar to Proxmox VE itself, not enough votes for a majority. Ceph has the list of MONs in the /etc/ceph/ceph.conf file for service that are not MONs. So you could remove the sections for the lost MONs and the IP addresses in the `global.mon_host` line. This does not help...
  3. aaron

    Restore Nodes after dead of quorum!

    How many Ceph MON instances did you have originally? If all MONs are lost, then you practically lost the Ceph cluster. If you still have one Ceph MON instance present on the nodes that didn't drown, it would be a lot better. No, that deals only with the Proxmox VE cluster. Ceph is its own...
  4. aaron

    Restore Nodes after dead of quorum!

    You will have to remove the old nodes from the Proxmox VE cluster https://pve.proxmox.com/pve-docs/pve-admin-guide.html#_remove_a_cluster_node Setting the Expected votes to a number you can actually achieve first can be useful: pvecm expected 3 After that you can re-add the replaced nodes to...
  5. aaron

    Restore Nodes after dead of quorum!

    More info is needed. Do you still have any Ceph MONs around or were they lost too? Is the Proxmox VE cluster itself up and running with the replaced nodes? Quorum for Proxmox VE and Ceph are two distinct things!
  6. aaron

    Proxmox CEPH Stretch Cluster Network requirements

    A 10Gbit connection can already be a bottleneck in a Ceph cluster if you have somewhat fast disks. See our last benchmark whitepaper. If 5ms RTT is fast enough is something I cannot say as that really depends on your expectations. Keep in mind, that whenever a client, in our case a VM, writes...
  7. aaron

    Fragen bzgl. erster Proxmox / CEPH Installation

    Du könntest dir noch rbd bench anschauen. Da benchmarkt man dann nicht nur den Object-Layer, sondern den RBD layer. Aber wenn die Performance ausreichend ist und der verfügbare Speicherplatz wichtiger ist, dann nehmt mal einen EC pool. Falls man dann merkt, dass das in der Praxis doch zu langsam...
  8. aaron

    Fragen bzgl. erster Proxmox / CEPH Installation

    Wenn die OSDs sehr gleichmäßig voll sind, sollte der Nutzbare Speicher bei 3/2 sich in dem Rahmen abspielen. Je nach Workload ist die Performance evlt. nicht ganz so gut. Aber dafür ist mehr Netto vom Bruttospeicher verfügbar. EC Pools sind generell weniger flexibel as replicated. D.h., bei...
  9. aaron

    Proxmox CEPH Stretch Cluster Network requirements

    Both sites are included in the day-to-day. Ergo, the latency and bandwidth between both sites need to be fast and low. A write is only ACKed once you have 2 replicas written in each site. A single Ceph cluster spanning multiple sites is therefore only useful if they are closely together. Think...
  10. aaron

    [SOLVED] Continuous replication using Ceph

    PBS got nothing to do with that, or am I missing something? Another approach would be to use two PBS instances in each site and remote sync the backups. Then you can (live) restore in the disaster case. Or do regular restores in the DR site. Setting up replication between PVE clusters is...
  11. aaron

    [SOLVED] Continuous replication using Ceph

    Have you seen this? https://pve.proxmox.com/wiki/Ceph_RBD_Mirroring
  12. aaron

    VM-disk in andere VM mounten

    Meinst du einen geplanten shutdown/maintenance-mode? Ansonsten wird das mit lokalen Disk Images schwer. Hat die VM auf dieser Node irgendwelche Disken auf die sie zugreifen kann? Bzw. wie sie die VM config aus? Wenn alle Images noch auf der alten Node liegen, kannst du die VM (ausgeschalten)...
  13. aaron

    [SOLVED] Welche OSD nutzt welche SSD WAL/DB Partition

    Siehst du die infos aber für die anderen OSDs? Die Infos könntest du dann gegen die liste an LVs auf der DB SSD diese ist. Mit lsblk sollten zB alle LVs angezeigt werden.
  14. aaron

    Linux KVM stürzt ab

    Jup, dann war da wohl nicht mehr viel RAM frei, und VMs haben meist viel und sind deshalb ein gutes Ziel für den OOM Killer ;) KSM sharing ist nett und praktisch, führt aber zu deutlich dynamischeren Verhalten wie du erlebt hast. Also eventuell mal überdenken wie sehr sich die VMs wirklich...
  15. aaron

    Linux KVM stürzt ab

    Siehst du in den Syslogs was vom OOM KIller? Das wäre ein Hinweis, dass nicht genug RAM am Host vorhanden ist. Bei 40GiB im KSM könnte dann zB der Grund sein, dass ein VM plötzlich deutlich andere RAM Inhalte hat, die nicht mehr mit anderen VMs geshared werden können.
  16. aaron

    [SOLVED] Import from vmWare problems: machines do not boot

    you can get older virtio ISOs from the fedora project to see if they contain win7 drivers. the important part is to have the dummy disk using (virtio)scsi to show up in the disk mgmt of Windows before you detach & remove it. Only then can you power down the VM, switch the main disk to scsi and...
  17. aaron

    [SOLVED] Import from vmWare problems: machines do not boot

    Checkout the post migration steps: https://pve.proxmox.com/wiki/Migrate_to_Proxmox_VE#Post_Migration there is a link to the guide on how to switch Windows over to virtio drivers. For the dracut machine, it should work by booting into the rescue image that contains all drivers and rebuilding the...
  18. aaron

    VM with LVM (Thick) to LVM-Thin

    Technically a thin LVM consists of 2 LVs in a thick LVM, which are then used to store the metadata and data. The LVM tooling will usually hide that fact nicely, but you can see it with lsblk for example. You could probably create a new thin LVM inside the thick LVM manually, add a matching...
  19. aaron

    [SOLVED] Welche OSD nutzt welche SSD WAL/DB Partition

    Ad hoc, nach dem Ausschlussverfahren. Du sieht in den OSD Details (Ceph -> OSD) die Devices welche die OSD verwendet. Da sind auch alle LVs gelistet. Wahrscheinlich gibts auch elegantere Varianten, aber die fallen mir gerade nicht ein.
  20. aaron

    Container gelöscht - Inhalt vom Mountpoint auch weg?

    Du kannst den Mountpoint einem anderen Container zuweisen (Volume Action -> Reassign Owner) Alle in der Config referenzierten MPs/virtuellen Disks werden mit dem Gast gelöscht. Wenn du die entsprechende Option beim Löschen anklickst, werden zusätzlich auch alle Storage nach disk images mit...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!