Search results

  1. S

    hardware renewal for three node PVE/Ceph cluster

    yes, there is dedicated BMC which I didn't mention.
  2. S

    hardware renewal for three node PVE/Ceph cluster

    yes, you can: https://pve.proxmox.com/wiki/Manual:_datacenter.cfg At the moment our live migrations use the switches and so the (cross-room) connections between the switches. These are 2x 10G and can easily be saturated by live migrations. That leads to higher latency between the switches, which...
  3. S

    hardware renewal for three node PVE/Ceph cluster

    I still didn't get the point. I try to clarify the network setup: these are connections to our switches: 1x 10G management (PVE WebGUI) 1x 10G Corosync 2x 25G VM network (bonded) and these are direct connections, no switches involved: 4x 25G for Ceph "bonded full mesh" 2x 25G VM Migration...
  4. S

    hardware renewal for three node PVE/Ceph cluster

    Yes, it is. What exactly do you mean by this?
  5. S

    hardware renewal for three node PVE/Ceph cluster

    Yes, we already took this into account. Networking is planned like this: available: 2x 10G onboard 10x 25G Broadcom cards usage: 1x 10G management (PVE WebGUI) 1x 10G Corosync 4x 25G for Ceph "bonded full mesh" 2x 25G VM network (bonded) 2x 25G VM Migration (full mesh) 1x 25G Backup
  6. S

    hardware renewal for three node PVE/Ceph cluster

    any other opinions? (first and last bump :D)
  7. S

    hardware renewal for three node PVE/Ceph cluster

    thanks for this - as far as I understand, you're right: When an OSD fails, the pool becomes degraded, which means: Pool is working, but no more redundancy left. But I think that's ok for us. Three times the usable storage must be enough. :D
  8. S

    hardware renewal for three node PVE/Ceph cluster

    Hi, after almost five years with our three node PVE/Ceph cluster now it's hardware renewal time! Core requirements are: - about 24 TB of usable storage (fast and scalable) - about 512 GB RAM per node (scalable) Unfortunately we can't go with AMD EPYC CPUs because of Oracle. Together with...
  9. S

    Problem with proxmox version 5.4-3

    If I were in this situation I wouldn't waste time trying to upgrade such an outdated installation. I would try to backup the VMs, make a new installation of the whole environment and then restore the VMs.
  10. S

    [SOLVED] sync-job für Offsite-Backup: "can't verify chunk"

    Seit der defekte RAM-Riegel aus dem Spiel ist, kamen keine Fehler mehr. Das ist mir fast ein bisschen peinlich. :D Vielen Dank!
  11. S

    [SOLVED] sync-job für Offsite-Backup: "can't verify chunk"

    Das ist ein erster Test auf der Basis gewöhnlicher Desktop-Hardware zzgl. der finalen PCIe-Karte - also ohne ECC-geschützten RAM.
  12. S

    [SOLVED] sync-job für Offsite-Backup: "can't verify chunk"

    So, ich habe nochmal von vorne angefangen: Erster "full sync", sowie die anschließende Verifikation waren erfolgreich. Wir syncen und verifizieren täglich - sollte das nun die nächsten zwei Tage keine Fehler mehr werfen, würde ich sagen, dass das Problem gelöst ist. :)
  13. S

    [SOLVED] sync-job für Offsite-Backup: "can't verify chunk"

    wow, eines der RAM-Module ist defekt. :rolleyes: Dann bin ich nun gespannt, ob das tatsächlich die Lösung ist. Danke erstmal!
  14. S

    [SOLVED] sync-job für Offsite-Backup: "can't verify chunk"

    Danke für den Input - memtest läuft. Könnte auch zu wenig RAM die Ursache sein? In der Kiste sind derzeit 32 GB RAM verbaut, und das PBS-Datastore ist ein 12,8 TB großes ZFS. Passt das?
  15. S

    [SOLVED] sync-job für Offsite-Backup: "can't verify chunk"

    Der sync besagter VM wurde letzte Nacht erfolgreich verifiziert, dafür schlugen fünf andere Verifikationen fehl. Die Quellen wurden zuvor erfolgreich verifiziert, und auch der Sync-Job selbst lief ohne Fehler. Wo können sich da die Probleme reinschleichen?
  16. S

    [SOLVED] sync-job für Offsite-Backup: "can't verify chunk"

    Danke für die schnelle Antwort! Dann schauen wir mal, ob sich das heute Nacht von alleine zurechtruckelt.
  17. S

    [SOLVED] sync-job für Offsite-Backup: "can't verify chunk"

    Hallo zusammen, wir sichern unsere ca. 60 VMs auf einen dedizierten PBS. Nun würden wir gerne einen weiteren PBS als Offsite Backup an den Start bringen, der einmal am Tag das jeweils jüngste Backup aller VMs zu sich holt. Sowohl die Einrichtung, als auch der initiale Sync haben prima geklappt...
  18. S

    IO Performance auf VMs auf Ceph ist extrem schlecht

    Ja, wir sind durch das Mesh auf 25G beschränkt. Jammern auf hohem Niveau, würde ich sagen. :) Entspannt, würde ich sagen. Im normalen Produktivbetrieb gehen über die Mesh-NICs die meiste Zeit weniger als 100 MB/s. CPU der Nodes bei ca. 20%, RAM bei ca. 60%. Jep, die MTU size der Mesh-NICs...
  19. S

    IO Performance auf VMs auf Ceph ist extrem schlecht

    Bis zu 10% hin und her geht es schon manchmal. Aber das tut's auch, wenn ich unter gleichen Bedingungen mehrmals oder zu unterscheidlichn Zeiten teste. Haben andere denn auch die Erfahrung gemacht, dass die IOPS-Performance von Ceph davon abhängt, wie viele vCPUs und RAM eine VM hat? Ich sehe...
  20. S

    IO Performance auf VMs auf Ceph ist extrem schlecht

    So sieht die VM gerade aus: boot: order=scsi0;ide2;net0 cores: 2 cpu: host ide2: none,media=cdrom memory: 1024 name: test net0: virtio=0E:F2:92:FB:E4:5C,bridge=vmbr0,firewall=1,tag=xy numa: 0 ostype: l26 scsi0: <cephpoolname>:vm-154-disk-0,discard=on,iothread=1,ssd=1,size=20G scsi1...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!