Search results

  1. T

    Start task "logrotate" manually

    Usecase is immediately cleaning up a huge /var/log/proxmox-backup folder filling up the root FS after inserting "task-log-max-days" to /etc/proxmox-backup/node.cfg
  2. T

    Start task "logrotate" manually

    Hey everybody, is there a way to start this PBS task manually?
  3. T

    Proxmox GUI: Task List shows only old entries

    No, we never really solved this. For other reasons we had to completely reinstall the entire Proxmox Cluster. Since then the problem never came back till today.
  4. T

    Probleme beim wechseln von Ceph IPs/Subnet

    Hat jmd. ne Idee, ob das in unserem Szenario ein valides Vorgehen wäre?
  5. T

    Probleme beim wechseln von Ceph IPs/Subnet

    Gut, drüber gesprochen zu haben... manchmal kommt man auf bessere Alternativen selbst nicht :D Inspiriert von hier: https://pve.proxmox.com/wiki/Full_Mesh_Network_for_Ceph_Server#RSTP_Loop_Setup sind unsere 3 Proxmox Nodes mit 2 Ringen a 40GBit direkt untereinander verkabelt, ein Ring für...
  6. T

    Probleme beim wechseln von Ceph IPs/Subnet

    Der Hintergrund ist, dass aus den Servern die Netzwerkkarte raus muß, wo gerade Ceph drüber läuft und daher auf einer anderen, auch schon für andere (kleinere) Dinge genutzte Netzwerkkarte gepackt werden muß, deren IP wir nicht ändern können / sollten. Aber vllt. packen wir auf der einfach die...
  7. T

    Probleme beim wechseln von Ceph IPs/Subnet

    Und wenn ich die Ceph Doku richtig verstehe, finden sich die mons ja über diese interne monMap, die nicht neu erzeugt wird, wenn man die ceph.conf ändert. Dann dürfte doch das Neustarten der mon-Dienste auch nicht reichen oder? Zumindest haben wir das auch noch versucht, als wir die obige...
  8. T

    Probleme beim wechseln von Ceph IPs/Subnet

    Nein, wir müssen alles, was .82 "heißt" entfernen bzw. auf ein anderes Netz (.81) ändern, nicht nur das cluster_network.
  9. T

    Probleme beim wechseln von Ceph IPs/Subnet

    Wir müssen an den Servern hardwareseitige Änderungen vornehmen, die das erforderlich machen.
  10. T

    Probleme beim wechseln von Ceph IPs/Subnet

    Vielen Dank schon mal für den Hinweis. Wenn ich mir die Ceph Doku diesbzgl. so ansehe, sollte man in diesem Fall also so vorgehen: 1) Hinzufügen neuer Mons mit den neuen IPs 2) Entfernen der alten Mons 3) Anpassen der ceph.conf, damit die clients die neuen mons finden Über die Proxmox GUI geht...
  11. T

    Probleme beim wechseln von Ceph IPs/Subnet

    Hallo zusammen, wir betreiben einen Proxmox VE (8.1.4) / Ceph (18.2.1) Cluster bestehend aus 3 Nodes. Die aktuelle Ceph Config sieht so aus: [global] auth_client_required = none auth_cluster_required = none auth_service_required = none cephx_sign_messages = false...
  12. T

    [SOLVED] ZFS Pool "backup" 100% Full, GC fails

    @Max Carrara Thx a lot for this finding in the docs. Now it gets clearer why there is some space "FREE" but "No space left". As can be read, in the meantime we were able to initially free enough space to make GC Job run again (which is still running at the time of writing).
  13. T

    [SOLVED] ZFS Pool "backup" 100% Full, GC fails

    This PBS is our Backup Target for all productive / critical VMs of a connected productive PVE Cluster. So as we urgently need it running again, and no one seems to have an idea we did the following in the meantime: -> Moved away ~30-40 of the oldest directories in ".chunks" to another FS and so...
  14. T

    [SOLVED] ZFS Pool "backup" 100% Full, GC fails

    I just noticed this: root@pbs:/mnt/datastore/backup# df -i Filesystem Inodes IUsed IFree IUse% Mounted on backup 6828558 6828558 0 100% /mnt/datastore/backup Could this be an explanation? I'm wondering if / that ZFS really also has inodes like ext4...
  15. T

    [SOLVED] ZFS Pool "backup" 100% Full, GC fails

    Nope: root@pbs:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT backup 14.4T 0B 14.4T /mnt/datastore/backup root@pbs:~#
  16. T

    [SOLVED] ZFS Pool "backup" 100% Full, GC fails

    root@pbs:~# zfs list NAME USED AVAIL REFER MOUNTPOINT backup 14.4T 0B 14.4T /mnt/datastore/backup root@pbs:~# zpool list NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT backup 14.5T 14.4T 125G - - 89% 99% 1.00x...
  17. T

    [SOLVED] ZFS Pool "backup" 100% Full, GC fails

    After googling around, another thing we tried was this: -> copy an old dir under .chunks to another FS -> "cat /dev/null >..." to all files in that dir -> rm all files in that dir Didn't help either, FS remains 100% full... as a plus what we noticed and is even more confusing: Before this step...
  18. T

    [SOLVED] ZFS Pool "backup" 100% Full, GC fails

    Hi everybody, at a PBS the backup storage, which is a ZFS, is completely full, so the GC Job fails: In the Server all physical ports are used so we can't simply add more HDDs for extending the pool. In theory we just need some few megs of space so the GC Job can do it's work.. we even tried...
  19. T

    VM I/O Performance with Ceph Storage

    So for finishing this thread, here the current situation: First of all, we never really found out, what was going wrong in the Proxmox/Ceph Cluster. What we did till today is this: Took an older HP Proliant Server, installed Proxmox on it Migrated all VMs and their data to this single Server...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!