Search results

  1. RAM Auslastung Proxmox 6 mit Ceph nautilus

    Hallo Zusammen, ich habe eine Frage bzgl. der RAM Auslastung vom unserem Testsystem. Mir ist bekannt dass die RAM Auslastung mit Bluestore höher ist als vorher, aber wie kann es sein dass obwohl ich keine VM laufen hab der Knoten derart ausgelastet ist. Desto länger die Rechner Laufen desto...
  2. Ursache Local läuft voll. Gelöschtes löschen?

    Hallo zusammen, leider habe ich das Problem, dass bei einem ein Knoten Proxmox System der Local Speicher vollläuft. Als Content befindet sich lediglich ein eine kleine 250mb .iso Datei und keine Backups auf dem Laufwerk. Den einzige Speicherfresser den ich ausmachen konnte ist der Log Ordner...
  3. IP Adressen in Corosync ändern / Cluster neu erstellen?

    Hallo Zusammen, ausgangspunkt ist ein Cluster bestehend aus drei Knoten fertig konfiguriert ceph und erkennung der nodes alles einwandfrei. Jetzt haben wir diesen Cluster testweise in ein Serverzentrum verfrachtet und die IP Adressen aller Knoten mussten geändert werden. Habe die IPs einfach...
  4. USB mount Änderung wird auf anderen Knoten nicht erkannt.

    Hallo zusammen! Ich habe an unserem Testsystem mit 3 Knoten an Knoten A eine 3TB USB Festplatte mit Label und Eintrag in die fstab gemounted. Diese wurde dann als Storage eingebunden um Backups direkt auf eine angeschlossene Wechselfestplatte sichern zu können. Testweise habe ich auch mal...
  5. Ungewöhnlich hoher RAM verbrauch.

    Hallo zusammen, wir haben einen neu aufgesetzten Cluster aus drei Knoten. Alle drei haben eine ständig zunehmende RAM auslastung. Hier als Beispiel, ein Knoten auf dem nur eine VM läuft die gerade mal 2,3GB Ram braucht. Und hier ein Anderer Knoten auf dem eine VM läuft die 6,9GB RAM...
  6. [SOLVED] PCIe Bus Error: severity=Corrected, type=Data Link Layer Fehler

    Hallo zusammen, wir bekommen nach einer Proxmox 5.1 Neuinstallation folgende Fehlermeldungen nachdem der Bootvorgang abgschlossen ist und der Login screen erscheint. PCIe Bus Error: severity=Corrected, type=Data Link Layer, id_0010(Receiver ID) Device [8086:6f04] error status/mask...
  7. Netzwerkkonfiguration für VMs mit fester IP

    Hallo zusammen! Ich habe schon einiges ausprobiert, bekomme es aber nicht hin, das eine VM via RDP mit einer festen IP Adresse zu erreichen/verbinden. Der Proxmox Server hat eine feste IP in einem Rechenzentrum. Dieser Server ist über die feste IP über Standardport 8006 erreichbar. Nur wie...
  8. Sehr langsame Restore der Backups

    Hallo! Wir haben fünf Knoten mit Ceph im Einsatz, Ceph hat sein eigenes privates Netz mit GigaBit LAN Karten, physisch vom Public/Firmennetz getrennt. Die Performance aller VMs ist super schnell, 2-7 ms Latenzzeiten, und das konstant. Die Restore Geschwindigkeit beträgt im Durchschnitt 10-15...
  9. Ceph - OSD mail notification

    Hello everybody! We are using five nodes in one cluster, and we use ceph for the mainstorage. Now my question, is it possible to configure a mail notification for the status of the OSDs? The mail should send an email if one of the OSDs reaches the warn/health status "X near full osd(s)" at 85%...
  10. Ceph - OSD mail notification

    Hallo! Wir haben Proxmox in Verbindung mit Ceph im Einsatz. Ich bin schon lange auf der Suche, das ich gerne eine Email bekommen möchte wenn eine der OSDs den Status "near full OSD(s)" bekommt (85%), und natürlich dann auch wenn es fast zu spät ist, "full osd(s)" (95%). Ist das irgendwie...
  11. Can´t mount USB device/can´t add LVM

    Hello! I try to add an usb-stick to one node of our five-node Cluster with ceph. I used the doku from here: https://pve.proxmox.com/wiki/Storage_Model My usb device is 8 GB and i want to copy all /etc files from my nodes to the extern media usb device. At the Point to create lvm over the gui...
  12. Change IP Adresses for Monitors/Ceph Storage

    Hello everybody! We have Proxmox on five nodes in production Environment. The Hosts/Nodes have the same IP Adresses as the Monitors. The nodes has two ethernet ports, but at the moment only one per node is in use and connected. Is it possible to give the ceph Storage/Monitors another IP Adress...
  13. Problem to run a konverted vmdk SLES OS under PVE4.0

    Hello everybody! We are using PVE 4.0 in our live System. In the past i converted successfully four SLES 11 SP 3 OSs with SAP Databases to our Ceph Storage, and the VMs from VMware run perfect on our PVE 4.0. (converted from vmdk to raw) But now i cant find a solution, to run an older SLES...
  14. local disk "LVM", all other "mounted"? Is this ok?

    Hello! I have created a new three nodes cluster with PVE 3.4 and ceph for the storage. All works fine, but there is a little difference with the Disks where Proxmox is installed. All the three nodes have an 120 GB SSD Disk for the PVE 3.4 Operating System. And all nodes reboot without errors...
  15. Ceph Storage - Is it possible to delete manually raw files on ceph?

    Hello! I have searching a lot and i know a lot about ceph, but i cant find a solution to delete manually a raw file (disk) on the ceph storage. It is not possible on the GUI (greyed out), and i find no other way to get on the ceph storage to delete the special one unused raw disk. Does anyone...
  16. [SOLVED] SLES 11 SP 3 from vmware to proxmox

    Hello! This week i tried to convert a Linux VM, but now i dont know what i should do. In the past i converted successfull vmdk´s, most of them had one harddrivedisk. I read all the proxmox wiki´s, but i don´t find a way to convert this Linux VM with more harddrivedisks. The VM i tried to...
  17. Ceph - osd "Problem" - on two nodes are the same osdid´s

    Hi to all! I have a three node cluster, with a ceph storage. It works perfect now. There are three Servers, two of them has 8 harddisks, one has 2 HDDs. 1 for Proxmox, 7 for ceph storage. Now my problem. Normally, there is only one osdid name for the whole three node cluster. I changed in the...
  18. High Availability with HP V1910-48G Managed Switch - Fencing

    Hello everybody! I try to find a solution, to get my HP V1910 managed switch to run with my three nodes with Promox VE 3.4. Does anyone successfully configurates a managed switch? I have problems with this command: root@pve1:~# fence_ifmib -o list -c fencing -a 192.168.X.XX -n switch...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE and Proxmox Mail Gateway. We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!