Search results

  1. N

    [SOLVED] Network lag / lost packets and much higher cpu usage since upgrade to PVE 8 / Linux 6.5

    I had the same issue. The VM with huge vitual CPU resources (2 sockets, 24 cores, 48 VCPUs) sometimes had 60-80% of packet loss. VMs with less CPU resources are not affected. Rolling back to kernel 6.2 seems to solve the problem.
  2. N

    CEPH Hochverfügbarkeit funktioniert nicht

    Ja, an OSDs in Server mit unterbrochener Verbindung sind die OSD Latenzen etwas mehr als an anderen. Etwa 4-7 ms an Server welches kurz nicht erreichbar war. 1-3 ms an anderen. Könnte die Ursache zu wenige PGs per OSD sein? Es sind ungefähr 60 pro OSD.
  3. N

    CEPH Hochverfügbarkeit funktioniert nicht

    Ja. Mehrmals. 4 Server Prozesse an einem Server gestartet (da ein Prozess nicht 40Gb/s voll nutzen kann) und 4 client Prozesse an anderem Server. Testergebnis liegt bei etwa 38-39 Gb/s.
  4. N

    CEPH Hochverfügbarkeit funktioniert nicht

    Nachtrag: Während recovery Netzwerk ist nur minimal ausgelastet. Nicht mal 1 Gb/s. Es ist eher unwahrscheinlich, dass Netzwerk in in diesem Fall die Ursache ist. Ich habe mclock scheduler Parameter geändert (wie @aaron empfohlen hat). Nämlich osd_mclock_scheduler_background_recovery_lim und...
  5. N

    CEPH Hochverfügbarkeit funktioniert nicht

    Hallo @aaron , Die OSDs sind Samsung pm9a3 Datacenter NVMes. Keine Desktop NVMes. Sowohl CPU, als auch RAM ist ausreichend vorhanden. Etwa 30 % von CPU und 50 % vom RAM ist in jedem Server immer frei. Jeder Server hat 128 CPU cores und 512 GB bis 1 TB RAM. IO delay ist in Normalbetrieb nahe 0...
  6. N

    CEPH Hochverfügbarkeit funktioniert nicht

    Hallo, Wir haben ein relative großes Hyperkonvergentes Cluster. 17 server jeweils mit 8 NVMe OSDs. Proxmox Version ist 7.4.17, Kernel ist 5.15.126-1-pve. CEPH Version ist 17.2.6 (quincy). CEPH cluster/public Netzwerke nutzen zwei eigene 40Gb/s Interfaces gebündelt in LACP bond. MTU ist 9000...
  7. N

    Ceph 17.2 Quincy Available as Preview and Ceph 15.2 Octopus soon to be EOL

    Thanks for your really great work. I have question about CEPH Quincy. Softiron storage vendor which uses CEPH for commercial product, says that there are some problems with Quincy: https://softiron.com/blog/our-approach-to-adopting-upstream-ceph-releases/ I'm interested if you encountered the...
  8. N

    KVM backup error since migrate to 2.3

    As in my case, if "qemu-img check" reports errors like: 1027 leaked clusters were found on the image. This means waste of disk space, but no harm to data. qcow2 image is damaged. Image can be repaired with following steps: 1. Create new VM (for example VM 121). 2. Shutdwon production VM with...
  9. N

    KVM backup error since migrate to 2.3

    qemu-img convert -p -f qcow2 vm-120-disk-1.qcow2 -O raw vm-120-disk-1.raw qemu-img: error while reading sector 110780416: Input/output error
  10. N

    KVM backup error since migrate to 2.3

    qcow2 image is corrupt.qemu-img check vm-120-disk-1.qcow2 Leaked cluster 5013 refcount=1 reference=0 Leaked cluster 5014 refcount=1 reference=0 Leaked cluster 21903 refcount=1 reference=0 ... 1027 leaked clusters were found on the image. This means waste of disk space, but no harm to data...
  11. N

    KVM backup error since migrate to 2.3

    VM is in production. I can't give you a copy of qcow2 image. Sorry. Best Regards, Nugzar
  12. N

    KVM backup error since migrate to 2.3

    Hi Dietmar, Here VM 120 config: balloon: 3072 boot: cd bootdisk: virtio0 cores: 3 ide2: none,media=cdrom memory: 6144 name: web.somename.ge net0: e1000=XX:XX:XX:XX:XX:XX,bridge=vmbr1 onboot: 1 ostype: l26 sockets: 2 startup: order=1 tablet: 0 virtio0: local:120/vm-120-disk-1.qcow2,size=160G...
  13. N

    KVM backup error since migrate to 2.3

    Same problem here. Only one KVM-VM will not backup. Backups of all other VMs on the same proxmox-node (and on the same local storage) ends successful. Mar 12 02:00:01 INFO: Starting Backup of VM 120 (qemu) Mar 12 02:00:01 INFO: status = running Mar 12 02:00:02 INFO: backup mode: snapshot Mar...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!