Search results

  1. itNGO

    Replicate failed : got timeout

    Not enough to help you, any Logs? Any info about Network and Host-Configuration?
  2. itNGO

    Error I40E_AQ_RC_ENOSPC, forcing overflow promiscuous on PF

    So wait until this is added to an PVE Update...
  3. itNGO

    Lxc container causing very high load and lots of running processes

    It schedules them like any other process also does?
  4. itNGO

    Lxc container causing very high load and lots of running processes

    This is a known issue... enable at least a small SWAP for your LXC... 512MB or so and the problem will solve instant.... no need to restart Container....
  5. itNGO

    NOOB question about storage

    https://pve.proxmox.com/wiki/Storage
  6. itNGO

    Error I40E_AQ_RC_ENOSPC, forcing overflow promiscuous on PF

    We reverted a cluster to Kernel 6.5 and the issues where gone. Maybe that also solves your problem.
  7. itNGO

    new proxmox server in datacenter

    https://forum.proxmox.com/threads/proxmox-datacenter-manager-first-alpha-release.159324/
  8. itNGO

    vm hängt wärend Backup zu PBS

    Begrenz mal die Bandbreite für das Backup auf 800Mbit im PVE.... ich hatte schon das Backups 1gbe so "satt" machen, das da einfach nichts anderes mehr durch wollte....
  9. itNGO

    Kann Ceph Flaschenhals nicht finden

    Ich mach jetzt keine Werbung, aber die tun es bei uns ganz gut.... https://eu.store.ui.com/eu/en/category/accessories-modules-fiber/collections/accessories-pro-direct-attach-cables/products/uacc-dac-qsfp28?variant=uacc-dac-qsfp28-0.5m Aber im Prinzip geht wohl jedes qsfp28 100GBe.... oder der...
  10. itNGO

    vm hängt wärend Backup zu PBS

    Wie ist denn die LAN-Verbindung von PVE zu PBS? Fleecing aktivieren tut nicht weh.... einfach mal testen ob es einen Unterschied macht.
  11. itNGO

    vm hängt wärend Backup zu PBS

    Das fleecing soll dein Backup auch nicht beschleunigen, es soll "io-wait" für den Gast reduzieren. Dieser könnte sonst bei einem "schnellen" PBS ins stocken geraten und die VM kriegt "Schluckauf"....
  12. itNGO

    Kann Ceph Flaschenhals nicht finden

    Ein Ceph-Netzwerk ohne Redundanz zu betreiben, ist für mich inakzeptabel. Daher empfehle ich entweder den Einsatz von Netzwerkkarten mit zwei 100 GBit Ports oder, falls das Budget begrenzt ist, mit zwei 25 GBit Ports zu arbeiten. Mellanox gilt als der De-facto-Standard in puncto Zuverlässigkeit...
  13. itNGO

    vm hängt wärend Backup zu PBS

    Wenn du Subscription hast, evtl. nen Ticket bei Proxmox aufmachen? Hast du nen Fleecing-Storage angegeben für PBS Backups?
  14. itNGO

    Installation Win11 24h2 VM schlägt fehl ohne ersichtlichen Grund

    Ja, auch der ECC kann Probleme haben. Das "müsste" das Syslog eigentlich aber dann auch melden.... Jedenfalls schadet ein MEM-Test sicher nicht um das auszuschliessen....
  15. itNGO

    Installation Win11 24h2 VM schlägt fehl ohne ersichtlichen Grund

    Mach einen RAM-Test von deinem Host. Sofern kein ECC-Speicher im Einsatz ist, stehen die Chancen gut, das ein Modul defekt ist.... evtl. kannst du das umgehen, in dem du andere VMs abschaltest während der Installation, damit der entsprechende RAM-Bereich "evtl." nicht benutzt wird.... ist aber...
  16. itNGO

    Nach Backup hohe RAM-Auslastung am Host

    Dann mach nen Bug-Report dazu auf...
  17. itNGO

    Nach Backup hohe RAM-Auslastung am Host

    For new installations starting with Proxmox VE 8.1, theARC usage limit will be set to 10 % of the installed physical memory, clamped to a maximum of 16 GiB. This value is written to /etc/modprobe.d/zfs.conf. So steht es im ChangeLog und ich kann das Verhalten grundsätzlich auch für einige...
  18. itNGO

    Nach Backup hohe RAM-Auslastung am Host

    Das Default bei neuen PVE8-Setups ist mittlerweile bei 16GB, früher waren es 50% vom RAM.... Wenn man sehr DISK-IO-Lastig unterwegs ist, gerne einen großen ARC einstellen. Ich denke so 64 bis 96GB wäre nen guter Startwert...
  19. itNGO

    CEPH - one pool crashing can bring down other pools and derail whole cluster.

    Using garbage and blaming Ceph for having problems with non enterprise equipment is "blasphemous mode". But yes, you can kill Ceph with even clusternode numbers and removing unreiable nodes without informing the cluster by just unplug them. Create mons and Managers on the reliable nodes only and...