Recent content by VoIP-Ninja

  1. V

    VM disk latency increases dramatically when the guest is running kernel 6.8

    Very interesting - we run into similar issues: Only one nodes shows same problems with disk latency which rises compared to other nodes, but Disk I/O is low ( it seems after a kernel upgrade, but earlier kernel was also 6.8 ) All nodes are NVMe and SATA SSD only, no hard disk. The problematic...
  2. V

    Slow restore speed on Ceph

    Also latency is much lower with 10G than 1G - keep that in mind ( because of 3 writes, commits etc ).
  3. V

    [Feature request] Ability to enable rxbounce option in Ceph RBD storage for windows VMs

    I can also confirm, since this change - no more CRC sig Erros in the logs with KRBD.
  4. V

    CEPH OSD version mis-match

    Hi there, looks like "Artemis" is up-to-date because is it the latest node added, with the latest version. Update both other nodes ( package update ). Restart your monitor nodes, one by one on the 2 "older" nodes. Restart all MDS if you run CephFS), one by one. Restart your OSDs one by one
  5. V

    Timeframe for Ceph 19.2?

    Ok - crimson looks like a very good reason, should give a good boost to nvme-only ceph-clusters. Gimme gimme gimme :)
  6. V

    Timeframe for Ceph 19.2?

    Are there any special features in terms of performance or else, compared to 18.2.x ?
  7. V

    Backup - libceph: read_partial_message 00000000df61d3e0 signature check failed

    Ja ok, mal abwarten, ein Häkchen in der GUI würd ja auch schon reichen. Wir werden es auf jeden Fall auch die Tage testen.
  8. V

    Backup - libceph: read_partial_message 00000000df61d3e0 signature check failed

    Sieht aus als hätten wir hier die Lösung: https://forum.proxmox.com/threads/feature-request-ability-to-enable-rxbounce-option-in-ceph-rbd-storage-for-windows-vms.155741/
  9. V

    [Feature request] Ability to enable rxbounce option in Ceph RBD storage for windows VMs

    What is a fast PBS in your words? NVMe / SSD only storage with sufficient bandwidth eg. 40G / 25G / 100G ?
  10. V

    8 server and so what?

    this depends on your hardware / infrastructure. What kind of storage, what kind of nics / switches etc.
  11. V

    vermutlich stört VM die Funktionen von Proxmox

    Also zfs und QVO ist überhaupt keine gute Kombination, da ist I/O Delay bzw. Wait vorprogrammiert.
  12. V

    Backup - libceph: read_partial_message 00000000df61d3e0 signature check failed

    Ja ok, ihr habt ja afaik immer die xxxxF CPUs für eure HCI-Cluster.
  13. V

    Backup - libceph: read_partial_message 00000000df61d3e0 signature check failed

    Ich hatte schon die Hoffnung, wenn wir jetzt eine neues / weiteres Cluster in Betrieb nehmen, direkt mit KRBD, kommen die Fehler nicht mehr :( Welchen Genoa Typ nehmt ihr so für HCI Cluster?
  14. V

    Ist es möglich PBS mit AWS S3 Blockspeicher zu betreiben?

    Doch, für Falks Bsp mit den Special Devices und ZFS sehr wohl - sollte doch bekannt sein, warum man keine Consumer SSDs mit zfs betreiben sollte. Und ein Teil der Daten liegt ( in Falks Bsp mit special dev ) sehr wohl auf den SSDs, und war die Meta-Daten. Wenn die weg sind, kannste den Pool auch...
  15. V

    Ist es möglich PBS mit AWS S3 Blockspeicher zu betreiben?

    Na, das Modell von Hetzner ( dein Screenshot ) mit den 2x 512GB SSDs hat auch keine enterprise / datacenter SSDs, da muss man schon zu ner 480GB Version greifen, oder nach datacenter SSD filtern. Just sayin' ;-)