Search results

  1. B

    Proxmox reboots after "Purging GPU memory"

    Thank you for the Link and explaination. I hope the Problem solves with this Solution.
  2. B

    [SOLVED] SDN Thematik

    Ich danke dir :) Schaue ich mir gleich an.
  3. B

    Proxmox reboots after "Purging GPU memory"

    Here are my Values of one node who starts in this moment with the error spam in system log: 32GB RAM installed ARC size (current): 31.3 % 4.6 GiB Target size (adaptive): 32.3 % 4.7 GiB Min size (hard limit)...
  4. B

    [SOLVED] SDN Thematik

    Hallo, ich bin gerade dabei, mich in das Thema SDN einzulesen, um es langfristig auch einzusetzen. Ich tue mich aber ein wenig schwer mit den ersten Tests. Kann mir jemand eventuell ein Video oder ähnliches empfehlen, wo ich das auch mal in der Praxis sehen kann? Inkl. Einrichtung, Tests usw...
  5. B

    ZFS root file system

    Ich würde ebenso empfehlen eine Neuinstallation zu machen. Auf dem Root System eine Konvertierung zu machen wäre zwar möglich, ist aber schon recht umständlich und komplex und wenn irgendwas nicht so funktioniert, wie gewünscht, dann war der Zeitaufwand umsonst. Ich selbst nutze kein ZFS auf...
  6. B

    Proxmox reboots after "Purging GPU memory"

    Yes, i have often similar behavior. I got this error with multiple gb usage of zfs cache.
  7. B

    Proxmox reboots after "Purging GPU memory"

    Hey, i have the Problem again with Kernelversion Linux 6.8.12-11-pve (2025-05-22T09:39Z) on a 64 gb machine with 4 vms, who have in summ 32gb ram usage. With ballooning it would never use full ram. Also 2 tb SSD in zfs. This night i got the error and reboot. Any idea what i can do...
  8. B

    [SOLVED] Stop sending Messages

    ah here... why the notification options are all so splittet? i found. thanks!
  9. B

    [SOLVED] Stop sending Messages

    Hey, i tried to disable the notification or set them only for warning, but i every time get a message. how can i stop that? its spamming my inbox. Here are my settings at the moment (all disabled): Thanks
  10. B

    Failed to add first node to cluster

    Which logs especially you need? I was looking for logs, but I didn't find useful logs. Every time while joining all logs are missing in this time range.
  11. B

    Failed to add first node to cluster

    I made a Video of this problem. Youtube I need to solve it. Maybe Staff know more? @seiji @Chris @fabian Thanks in forward
  12. B

    Failed to add first node to cluster

    i also reset my whole cluster, but the issue is still here with all new installed nodes with 3/7 nodes... its so annoying i cant get my fully functionallity back...
  13. B

    Failed to add first node to cluster

    I have the same problem and tried all of this forum. I didnt find any solution for that and its very random. of 7 nodes, 3 make the same issue every time after reinstall, fully update, check kernelversions and all other. the joining nodes dont change from "/etc/pve/local" to clusterfilesystem...
  14. B

    Joining Cluster pve-ssl.pem error

    Have the same problem and i didnt found any solution. i tried: - connection via ssh - updatecerts --force - manually copy the certs - restart services - checked kernel version (Linux 6.8.12-8-pve (2025-01-24T12:32Z)) - reinstall new node, pvecm delnode node and rejoin same issue the joined...
  15. B

    Homelab lokales ZFS, Ceph oder NFS Share?

    Was würde Ceph hier denn für Auslastung erzeugen? Wie muss ich mir das vorstellen? Nach dem Ablegen der Daten innerhalb dieses Datenpools sollte doch in der Theorie nur noch geändertes inkrementell synchronisiert werden oder übersehe ich hier was?
  16. B

    Homelab lokales ZFS, Ceph oder NFS Share?

    Performancetechnisch konnte ich bisher keine Probleme feststellen. Replizierungen laufen relativ schnell, wenn sie initial da sind Und generell habe ich da wenig Workload drauf. Backupprozesse sind bisher die, die am meisten Last erzeugen auf den Nodes. Was mich an den Replizierungen...
  17. B

    Homelab lokales ZFS, Ceph oder NFS Share?

    Richtig. Pro Node habe ich 2-max5 VMs, wenn 1 Node ausfällt.
  18. B

    Homelab lokales ZFS, Ceph oder NFS Share?

    Leider nein. Die Netzwerkkarten der Nodes sind 1gbit und ich kann keine zusätzlichen einbauen. Ich weiß nicht, wie ich die notwendige Schreibleistung ermitteln kann.
  19. B

    Homelab lokales ZFS, Ceph oder NFS Share?

    Moin, ich komme immer wieder auf diese Frage und daher wollte ich sie jetzt hier einfach mal stellen. Aktueller Stand: Ich habe 5 Proxmox Nodes mit jeweils einer 2 TB NVMe SSD, wo aktuell ein ZFS drauf liegt und die Nodes replizieren sich untereinander (jede VM hat 2 Replizierungs Targets)...
  20. B

    [SOLVED] Neustart von Node im Cluster

    Ja nun, ich schon. Bisher nutze ich die Backup Successful Mail als Trigger zum Herunterfahren von meinem Backup NAS. Habe noch keine brauchbare Alternative gefunden. Ist bisher die verlässlichste Meldung für eine Automatisierung, weil dann keine backups mehr laufen. Wäre ziemlich blöd, wenn das...