PVE 9.1.4 RAM läuft voll und OOM-Killer schießt VMs ab

Deviss

Member
Jan 8, 2022
20
4
23
32
Guten Abend,

ich betreibe meinen Server auf AM5 Basis mit 128GB RAM nun schon seit weiter über einem Jahr. Damals mit PVE 8.x angefangen.
Ich hatte bisher noch nie Probleme, seit ich jedoch Mitte Dezember auf PVE 9.x geupgraded habe, fing mein RAM Problem an.

Ich habe die Tage festgestellt, dass ein Server nicht erreichbar war und überprüfte dies mit der WebGUI von PVE. Dort stellt ich fest, dass die VM aus ist und diese lies sich nicht starten. Im Log wurde angezeigt, dass die VM vom OOM Killer beendet wurde, weil RAM + SWAP vollgelaufen sind. Zu diesem Zeitpunkt lief der Server ca. 30 Tage, es half nur ein Neustart vom Node, dieser hat nun knapp 4 Tage durchgehalten und lief wieder voll.

Die VMs sind seit ich sie erstellt habe auf Ballooning konfiguriert. Immer mit einer gewissen Menge Basis RAM und einer maximalen Menge. Sollte jede VM ihren kompletten RAM ausschöpfen, würden aktuell 64 GB genutzt werden. ZFS-ARC ist auf 8GB limitiert.

Ich habe nachdem zweiten Mal die VMs auf fixe RAM einstellungen umkonfiguriert, auch hier, maximal 64GB über alle VMs. Trotzdem frisst der Host schon wieder kontinuierlich RAM und ist bald wieder dabei den SWAP zu füllen.

Weiß jemand wie ich hier eine Lösung finde? Alle paar Tage neustarten ist nicht in meinem Sinne.

Edit:
RAM Wert von 54 auf 64 korrigiert.
 
Last edited:
Die Ausgabe für pvenode config get --property ballooning-target bleibt leer.

Ausgabe arc_summary -s arc:
Bash:
ZFS Subsystem Report                            Sun Jan 11 23:45:10 2026
Linux 6.17.4-2-pve                                            2.3.4-pve1
Machine: prxmx (x86_64)                                       2.3.4-pve1

ARC status:
        Total memory size:                                     124.9 GiB
        Min target size:                                3.1 %    3.9 GiB
        Max target size:                                6.4 %    8.0 GiB
        Target size (adaptive):                       100.1 %    8.0 GiB
        Current size:                                 100.1 %    8.0 GiB
        Free memory size:                                       25.9 GiB
        Available memory size:                                  21.6 GiB

ARC structural breakdown (current size):                         8.0 GiB
        Compressed size:                               93.4 %    7.5 GiB
        Overhead size:                                  3.8 %  313.3 MiB
        Bonus size:                                     0.2 %   13.3 MiB
        Dnode size:                                     0.5 %   43.4 MiB
        Dbuf size:                                      0.3 %   20.8 MiB
        Header size:                                    1.8 %  148.7 MiB
        L2 header size:                                 0.0 %    0 Bytes
        ABD chunk waste size:                         < 0.1 %    2.6 MiB

ARC types breakdown (compressed + overhead):                     7.8 GiB
        Data size:                                     91.9 %    7.2 GiB
        Metadata size:                                  8.1 %  647.8 MiB

ARC states breakdown (compressed + overhead):                    7.8 GiB
        Anonymous data size:                          < 0.1 %  100.0 KiB
        Anonymous metadata size:                      < 0.1 %  129.5 KiB
        MFU data target:                               34.0 %    2.6 GiB
        MFU data size:                                 32.0 %    2.5 GiB
        MFU evictable data size:                       31.9 %    2.5 GiB
        MFU ghost data size:                                     0 Bytes
        MFU metadata target:                           12.3 %  982.7 MiB
        MFU metadata size:                              3.3 %  264.5 MiB
        MFU evictable metadata size:                    2.9 %  234.5 MiB
        MFU ghost metadata size:                                 0 Bytes
        MRU data target:                               41.3 %    3.2 GiB
        MRU data size:                                 59.9 %    4.7 GiB
        MRU evictable data size:                       55.7 %    4.3 GiB
        MRU ghost data size:                                     1.6 GiB
        MRU metadata target:                           12.3 %  982.7 MiB
        MRU metadata size:                              4.8 %  383.2 MiB
        MRU evictable metadata size:                    3.6 %  286.7 MiB
        MRU ghost metadata size:                                 0 Bytes
        Uncached data size:                             0.0 %    0 Bytes
        Uncached metadata size:                         0.0 %    0 Bytes

ARC hash breakdown:
        Elements:                                                 647.6k
        Collisions:                                               649.9k
        Chain max:                                                     4
        Chains:                                                    12.1k

ARC misc:
        Uncompressed size:                            158.6 %   11.9 GiB
        Memory throttles:                                              0
        Memory direct reclaims:                                        0
        Memory indirect reclaims:                                      0
        Deleted:                                                   11.8M
        Mutex misses:                                              10.9k
        Eviction skips:                                                9
        Eviction skips due to L2 writes:                               0
        L2 cached evictions:                                     0 Bytes
        L2 eligible evictions:                                 182.8 GiB
        L2 eligible MFU evictions:                      0.0 %    0 Bytes
        L2 eligible MRU evictions:                    100.0 %  182.8 GiB
        L2 ineligible evictions:                               537.3 MiB

Ausgabe free -h:
Bash:
               total        used        free      shared  buff/cache   available
Mem:           124Gi        99Gi        25Gi        53Mi       1.4Gi        25Gi
Swap:          8.0Gi          0B       8.0Gi


Ausgabe top -co%MEM:
Bash:
top - 23:48:29 up 1 day,  5:25,  1 user,  load average: 76.92, 78.58, 77.08
Tasks: 542 total,   1 running, 541 sleeping,   0 stopped,   0 zombie
%Cpu(s):  1.0 us,  1.4 sy,  0.0 ni, 41.4 id, 56.2 wa,  0.0 hi,  0.0 si,  0.0 st
MiB Mem : 127883.8 total,  25904.5 free, 101795.1 used,   1469.1 buff/cache
MiB Swap:   8192.0 total,   8192.0 free,      0.0 used.  26088.7 avail Mem

    PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND
   4993 root      20   0   28.6g  16.1g  12756 S  29.6  12.9      8,17 /usr/bin/kvm -id 108 -name Jellyfin,debug-threads=on -no-shutdown -chardev socket,id=qmp,path=/var/run/qem+
   2485 root      20   0   12.7g  11.1g  13680 S   4.0   8.9 105:20.72 /usr/bin/kvm -id 200 -name Opnsense,debug-threads=on -no-shutdown -chardev socket,id=qmp,path=/var/run/qem+
   4878 root      20   0 9800304   7.8g  21760 S   1.0   6.2  64:28.40 /usr/bin/kvm -id 110 -name DockerHost,debug-threads=on -no-shutdown -chardev socket,id=qmp,path=/var/run/q+
   4539 root      20   0 6789648   3.9g  21928 S   1.3   3.1  57:43.91 /usr/bin/kvm -id 105 -name SSO,debug-threads=on -no-shutdown -chardev socket,id=qmp,path=/var/run/qemu-ser+
   4612 root      20   0 5074308   3.8g  12568 S   0.3   3.1  10:30.27 /usr/bin/kvm -id 101 -name DNS,debug-threads=on -no-shutdown -chardev socket,id=qmp,path=/var/run/qemu-ser+
   4716 root      20   0   17.1g   3.0g  12788 S   0.3   2.4  11:59.91 /usr/bin/kvm -id 102 -name Nextcloud23,debug-threads=on -no-shutdown -chardev socket,id=qmp,path=/var/run/+
   5122 100000    20   0 2984708   1.6g  21076 S   0.3   1.3  21:27.34 zoraxy -autorenew=86400 -cfgupgrade=true -db=auto -docker=true -earlyrenew=30 -enablelog=true -fastgeoip=t+
   3467 100111    20   0 1200040 973188   6752 S   0.0   0.7   0:09.32 /usr/sbin/clamd --foreground=true
   2456 www-data  20   0  220156 177480  30516 S   0.0   0.1   0:01.45 pveproxy
 964113 www-data  20   0  240872 173524  13596 S   0.0   0.1   0:02.92 pveproxy worker
 922170 root      20   0  230896 165372  15372 S   0.0   0.1   0:05.25 pvedaemon worker
 901219 root      20   0  230480 161732  11704 S   1.3   0.1   0:06.82 pvedaemon worker
 899786 root      20   0  230392 161708  11672 S   0.0   0.1   0:07.53 pvedaemon worker
1230055 www-data  20   0  229412 159852  10848 S   0.3   0.1   0:00.68 pveproxy worker
1244559 www-data  20   0  229196 158932  10168 S   0.0   0.1   0:00.13 pveproxy worker
   2444 root      20   0  218952 149072   3336 S   0.0   0.1   0:00.89 pvedaemon
   2416 root      20   0  194608 128836  14504 S   0.0   0.1  25:48.41 pvestatd
   5639 root      20   0  200576 123848   3368 S   0.0   0.1   0:07.29 pvescheduler
   2454 root      20   0  204692 123468   6088 S   0.0   0.1   0:06.51 pve-ha-crm
   2468 root      20   0  203932 122688   6028 S   0.0   0.1   0:09.59 pve-ha-lrm
   2415 root      20   0  177404 110156   7152 S   0.0   0.1   4:23.38 pve-firewall
   2465 www-data  20   0   91992  68032  16648 S   0.0   0.1   0:01.03 spiceproxy
   2245 root      20   0  559852  63368  51088 S   0.0   0.0   1:18.91 /usr/bin/pmxcfs
   3619 100000    20   0 2783912  58440  30204 S   0.0   0.0   0:41.94 /usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock
 272453 www-data  20   0   92256  55436   3904 S   0.0   0.0   0:01.74 spiceproxy worker
1019952 100000    20   0 1320096  40208  24448 S   0.0   0.0   0:01.37 /portainer
   3486 100000    20   0 2394580  35532  16864 S   0.0   0.0   0:54.98 /usr/bin/containerd
    563 root      20   0   42988  23908  22464 S   0.0   0.0   0:00.74 /usr/lib/systemd/systemd-journald
   1873 root      10 -10 2378644  23812   7224 S   0.3   0.0   3:26.79 ovs-vswitchd unix:/var/run/openvswitch/db.sock -vconsole:emer -vsyslog:err -vfile:info --mlockall --no-chd+
    580 root      20   0   77292  22296   9124 S   0.0   0.0   0:02.74 /usr/sbin/dmeventd -f
   3460 100000    20   0   29508  16416   6164 S   0.0   0.0   0:00.08 /usr/bin/python3 /usr/bin/networkd-dispatcher --run-startup-triggers
      1 root      20   0   24916  15600  10752 S   0.0   0.0   0:01.31 /sbin/init
   2238 root      10 -10   15440  15416  13508 S   0.0   0.0   0:00.00 /usr/sbin/iscsid
   3618 100111    20   0  150640  13892  10112 S   0.0   0.0   0:00.28 /usr/bin/freshclam -d --foreground=true
1243872 root      20   0   22800  13460  10424 S   0.0   0.0   0:00.16 /usr/lib/systemd/systemd --user
1243769 root      20   0   19748  12872  10972 S   0.0   0.0   0:00.00 sshd-session: root [priv]
   4165 100000    20   0 1238624  11332   6144 S   0.0   0.0   0:18.84 /usr/bin/containerd-shim-runc-v2 -namespace moby -id b0ca6d09b3b25cd39aee3c13831e7153aef007770679e33d5bcac+
    591 root      20   0   36644  10744   8084 S   0.0   0.0   0:00.20 /usr/lib/systemd/systemd-udevd
   3200 100000    20   0   34036  10492   9352 S   0.0   0.0   0:00.55 /usr/lib/systemd/systemd-journald
1019928 100000    20   0 1238368  10096   6164 S   0.0   0.0   0:00.68 /usr/bin/containerd-shim-runc-v2 -namespace moby -id ddcc8f70a7b92f302743304de3851195a314c9c75ba3108c310b2+
   3070 100000    20   0   21632   9464   6216 S   0.0   0.0   0:00.46 /sbin/init
   1918 root      20   0   19092   9232   7956 S   0.0   0.0   0:00.11 /usr/lib/systemd/systemd-logind
   1821 root      10 -10   18488   9204   6676 S   0.0   0.0   0:09.47 ovsdb-server /etc/openvswitch/conf.db -vconsole:emer -vsyslog:err -vfile:info --remote=punix:/var/run/open+
   3443 100106    20   0   21592   8688   6396 S   0.0   0.0   0:00.13 /usr/lib/systemd/systemd-resolved
   1912 root      20   0  847224   8436   6876 S   0.0   0.0   0:16.80 /usr/bin/rrdcached -g

LOG File Auszug:
Bash:
2026-01-10T18:08:51.324387+01:00 prxmx systemd[1]: qemu.slice: A process of this unit has been killed by the OOM killer.
2026-01-10T18:08:51.324594+01:00 prxmx systemd[1]: user-0.slice: A process of this unit has been killed by the OOM killer.
2026-01-10T18:08:51.324622+01:00 prxmx systemd[1]: user.slice: A process of this unit has been killed by the OOM killer.
2026-01-10T18:08:51.437927+01:00 prxmx systemd[1]: Reload requested from client PID 18866 ('systemctl') (unit pvedaemon.service)...
2026-01-10T18:08:51.437982+01:00 prxmx systemd[1]: Reloading...
2026-01-10T18:08:51.618363+01:00 prxmx systemd[1]: Reloading finished in 180 ms.
2026-01-10T18:08:51.638177+01:00 prxmx systemd[1]: qemu.slice: A process of this unit has been killed by the OOM killer.
2026-01-10T18:08:51.638365+01:00 prxmx systemd[1]: user-0.slice: A process of this unit has been killed by the OOM killer.
2026-01-10T18:08:51.638391+01:00 prxmx systemd[1]: user.slice: A process of this unit has been killed by the OOM killer.
2026-01-10T18:08:51.658113+01:00 prxmx systemd[1]: rsync.service - fast remote file copy program daemon was skipped because of an unmet condition check (ConditionPathExists=/etc/rsyncd.conf).
2026-01-10T18:08:52.012934+01:00 prxmx systemd[1]: Reload requested from client PID 18934 ('systemctl') (unit pvedaemon.service)...
2026-01-10T18:08:52.013005+01:00 prxmx systemd[1]: Reloading...
2026-01-10T18:08:52.196502+01:00 prxmx systemd[1]: Reloading finished in 183 ms.
2026-01-10T18:08:52.217911+01:00 prxmx systemd[1]: qemu.slice: A process of this unit has been killed by the OOM killer.
2026-01-10T18:08:52.218117+01:00 prxmx systemd[1]: user-0.slice: A process of this unit has been killed by the OOM killer.
2026-01-10T18:08:52.218153+01:00 prxmx systemd[1]: user.slice: A process of this unit has been killed by the OOM killer.
2026-01-10T18:08:52.248171+01:00 prxmx systemd[1]: Starting e2scrub_reap.service - Remove Stale Online ext4 Metadata Check Snapshots...
2026-01-10T18:08:52.275552+01:00 prxmx systemd[1]: e2scrub_reap.service: Deactivated successfully.
2026-01-10T18:08:52.275737+01:00 prxmx systemd[1]: Finished e2scrub_reap.service - Remove Stale Online ext4 Metadata Check Snapshots.
2026-01-10T18:08:52.533360+01:00 prxmx systemd[1]: Reloading pvedaemon.service - PVE API Daemon...

Ich hoffe das bringt dir etwas. Ich danke dir schon mal.
 
Kannst du bitte die Ausgabe von folgendem Befehl noch angeben:

Code:
grep -hR --include='*.conf' -E '^[[:space:]]*memory:[[:space:]]*[0-9]+' /etc/pve/lxc /etc/pve/qemu-server | awk -F'[: ]+' '{sum+=$2} END{printf "%d MB\n", sum, sum/1024}'

Der Befehl gibt den kombinierten konfigurierten RAM aller LXCs und VMs aus.

Dazu: Dein iowait und deine CPU-Last ist so massiv, so würde ich kein System betreiben :rolleyes:
 
Last edited:
Gern doch. Die Ausgabe gibt folgendes an:
Bash:
grep -hR --include='*.conf' -E '^[[:space:]]*memory:[[:space:]]*[0-9]+' /etc/pve/lxc /etc/pve/qemu-server | awk -F'[: ]+' '{sum+=$2} END{printf "%d MB\n", sum, sum/1024}'
67584 MB

Hm, ich habe eigentlich "nur" 64GB verteilt.
 
@fstrankowski Dein Befehl hat ein paar Bugs. Es zählt Snapshots mit, die Werte sind nicht in MB, und das sum/1024 am Ende ist unbenutzt,
Hier eine Version (die vermutlich auch Bugs hat) mit ein paar persönlichen Anpassungen/Simplifizierungen
Bash:
grep -hRE -m1 '^memory: [0-9]+' /etc/pve/{lxc,qemu-server} | awk -F':' '{sum+=$2} END{printf "%d MiB (%.2f GiB)\n", sum, sum/1024}'

@Deviss ARC ist auf 8G limitiert, Ballooning ist auf dem Standardwert von 80. Bedenke dass Gäste auch in bisschen Overhead haben. available ist verhältnismäßig niedrig.
Wie sehen die Werte aus wenn du Gast nach Gast stoppst? Siehst du bei einem Gast einen Größeren Abfall als erwartet? Wie siehst es ganz ohne laufende Gäste aus?
Es wäre interessant zu wissen was genau gekillt wurde. Vielleicht sagt uns das mehr
Bash:
journalctl -b -g "kill|oom|out of memory"
Der load und wait ist schon recht hoch. Vielleicht hilft dir das heraus zu finden warum.
Mehr RAM zuzuweisen als man hat ist, zumindest für CTs, oftmals kein Problem aber das machst du nicht. Wollte es nur angemerkt haben.
 
Last edited:
  • Like
Reactions: fstrankowski
Genau, ARC hatte ich manuell auf 8GB festgesetzt, da er damals in seinem Default Wert ca. 25GB genommen hat. Was bis vor kurzem auch egal war, weil der Host keine Zicken gemacht hat.

Ballooning habe ich inzwischen bei allen VMs deaktiviert. Aber du meinst ich sollte den Default Wert zukünftig anpassen?

Ich konnte bis jetzt außer meine Jellyfin VM alle stoppen, der Abfall war wie erwartet. Jellyfin teste ich sobald, dass System heruntergefahren werden kann, aktuell läuft dort ein RAID Rebuild. (Habe hier noch ein weiteres Proxmox oder Debian Problem). Sollte Jellyfin keine sonderlichen Auswirkungen haben, nimmt sich der Host 70GB RAM (inkl. ARC).

Der OOM Killer hat damals die Jellyfin VM abgeschossen, als Ballooning noch konfiguriert war, da diese ein maximum von 24GB haben durfte. Beim zweiten Mal als der RAM fest zugewiesen war, waren es Jellyfin und mein Dockerhost, das hat mich nämlich gerade beim Updaten von Debian erwischt.

Ausgabe von deinem Befehl:
Bash:
Jan 06 12:35:01 prxmx kernel: CPU 3/KVM invoked oom-killer: gfp_mask=0x140dca(GFP_HIGHUSER_MOVABLE|__GFP_ZERO|__GFP_COMP), order=0, oom_score_adj=0
Jan 06 12:35:01 prxmx kernel:  oom_kill_process.cold+0x8/0x87
Jan 06 12:35:01 prxmx kernel: [  pid  ]   uid  tgid total_vm      rss rss_anon rss_file rss_shmem pgtables_bytes swapents oom_score_adj name
Jan 06 12:35:01 prxmx kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=qemu.slice,mems_allowed=0,global_oom,task_memcg=/qemu.slice/108.scope,task=kvm,pid=>
Jan 06 12:35:01 prxmx kernel: Out of memory: Killed process 15166 (kvm) total-vm:38463600kB, anon-rss:25197088kB, file-rss:7556kB, shmem-rss:0kB, UID:0 pgtables:51992kB oom>
Jan 06 12:35:01 prxmx systemd[1]: 108.scope: A process of this unit has been killed by the OOM killer.
Jan 06 12:35:01 prxmx systemd[1]: 108.scope: Failed with result 'oom-kill'.
Jan 06 14:56:11 prxmx kernel: kvm invoked oom-killer: gfp_mask=0x140dc2(GFP_HIGHUSER|__GFP_ZERO|__GFP_COMP), order=0, oom_score_adj=0
Jan 06 14:56:11 prxmx kernel:  oom_kill_process.cold+0x8/0x87
Jan 06 14:56:11 prxmx kernel: [  pid  ]   uid  tgid total_vm      rss rss_anon rss_file rss_shmem pgtables_bytes swapents oom_score_adj name
Jan 06 14:56:11 prxmx kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=qemu.slice,mems_allowed=0,global_oom,task_memcg=/qemu.slice/108.scope,task=kvm,pid=>
Jan 06 14:56:11 prxmx kernel: Out of memory: Killed process 1424832 (kvm) total-vm:26056968kB, anon-rss:24951704kB, file-rss:1676kB, shmem-rss:0kB, UID:0 pgtables:49136kB o>
Jan 06 14:56:11 prxmx systemd[1]: 108.scope: A process of this unit has been killed by the OOM killer.
Jan 06 14:56:11 prxmx systemd[1]: 108.scope: Failed with result 'oom-kill'.
Jan 06 15:20:14 prxmx systemd[1]: qemu.slice: A process of this unit has been killed by the OOM killer.
Jan 06 15:20:44 prxmx systemd[1]: systemd-rfkill.socket: Deactivated successfully.
Jan 06 15:20:44 prxmx systemd[1]: Closed systemd-rfkill.socket - Load/Save RF Kill Switch Status /dev/rfkill Watch.
Jan 06 15:21:00 prxmx systemd[1]: pve-cluster.service: State 'stop-sigterm' timed out. Killing.
Jan 06 15:21:00 prxmx systemd[1]: pve-cluster.service: Killing process 2253 (pmxcfs) with signal SIGKILL.
Jan 06 15:21:00 prxmx systemd[1]: pve-cluster.service: Main process exited, code=killed, status=9/KILL
-- Boot 773ba9224efa4b3c9a11968042fb807d --
Jan 06 15:21:41 prxmx systemd[1]: Listening on systemd-rfkill.socket - Load/Save RF Kill Switch Status /dev/rfkill Watch.
Jan 10 17:59:31 prxmx kernel: CPU 4/KVM invoked oom-killer: gfp_mask=0x140dca(GFP_HIGHUSER_MOVABLE|__GFP_ZERO|__GFP_COMP), order=0, oom_score_adj=0
Jan 10 17:59:31 prxmx kernel:  oom_kill_process.cold+0x8/0x87
Jan 10 17:59:31 prxmx kernel: [  pid  ]   uid  tgid total_vm      rss rss_anon rss_file rss_shmem pgtables_bytes swapents oom_score_adj name
Jan 10 17:59:31 prxmx kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=qemu.slice,mems_allowed=0,global_oom,task_memcg=/qemu.slice/108.scope,task=kvm,pid=>
Jan 10 17:59:31 prxmx kernel: Out of memory: Killed process 10972 (kvm) total-vm:30292636kB, anon-rss:16809776kB, file-rss:3396kB, shmem-rss:0kB, UID:0 pgtables:35592kB oom>
Jan 10 17:59:31 prxmx systemd[1]: 108.scope: A process of this unit has been killed by the OOM killer.
Jan 10 17:59:31 prxmx systemd[1]: 108.scope: Failed with result 'oom-kill'.
Jan 10 17:59:32 prxmx kernel: qm invoked oom-killer: gfp_mask=0x140dca(GFP_HIGHUSER_MOVABLE|__GFP_ZERO|__GFP_COMP), order=0, oom_score_adj=0
Jan 10 17:59:32 prxmx kernel:  oom_kill_process.cold+0x8/0x87
Jan 10 17:59:32 prxmx kernel: [  pid  ]   uid  tgid total_vm      rss rss_anon rss_file rss_shmem pgtables_bytes swapents oom_score_adj name
Jan 10 17:59:32 prxmx kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=qmeventd.service,mems_allowed=0,global_oom,task_memcg=/user.slice/user-0.slice/user>
Jan 10 17:59:32 prxmx kernel: Out of memory: Killed process 4048846 (systemd) total-vm:22804kB, anon-rss:2496kB, file-rss:5640kB, shmem-rss:0kB, UID:0 pgtables:92kB oom_sco>
Jan 10 17:59:32 prxmx kernel: CPU 2/KVM invoked oom-killer: gfp_mask=0x140cca(GFP_HIGHUSER_MOVABLE|__GFP_COMP), order=0, oom_score_adj=0
Jan 10 17:59:32 prxmx kernel:  oom_kill_process.cold+0x8/0x87
Jan 10 17:59:32 prxmx kernel: [  pid  ]   uid  tgid total_vm      rss rss_anon rss_file rss_shmem pgtables_bytes swapents oom_score_adj name
Jan 10 17:59:32 prxmx kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=qemu.slice,mems_allowed=0,global_oom,task_memcg=/user.slice/user-0.slice/user@0.ser>
Jan 10 17:59:32 prxmx kernel: Out of memory: Killed process 4048848 ((sd-pam)) total-vm:22792kB, anon-rss:1208kB, file-rss:1416kB, shmem-rss:0kB, UID:0 pgtables:80kB oom_sc>
Jan 10 17:59:32 prxmx kernel: CPU 3/KVM invoked oom-killer: gfp_mask=0x140dca(GFP_HIGHUSER_MOVABLE|__GFP_ZERO|__GFP_COMP), order=0, oom_score_adj=0
Jan 10 17:59:32 prxmx kernel:  oom_kill_process.cold+0x8/0x87
Jan 10 17:59:32 prxmx kernel: [  pid  ]   uid  tgid total_vm      rss rss_anon rss_file rss_shmem pgtables_bytes swapents oom_score_adj name
Jan 10 17:59:32 prxmx kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=qemu.slice,mems_allowed=0,global_oom,task_memcg=/lxc/104/ns/user.slice/user-0.slice>
Jan 10 17:59:32 prxmx kernel: Out of memory: Killed process 8242 (systemd) total-vm:20140kB, anon-rss:1728kB, file-rss:880kB, shmem-rss:0kB, UID:100000 pgtables:84kB oom_sc>
Jan 10 17:59:32 prxmx kernel: systemd-journal invoked oom-killer: gfp_mask=0x140cca(GFP_HIGHUSER_MOVABLE|__GFP_COMP), order=0, oom_score_adj=-250
Jan 10 17:59:32 prxmx kernel:  oom_kill_process.cold+0x8/0x87
Jan 10 17:59:32 prxmx kernel: [  pid  ]   uid  tgid total_vm      rss rss_anon rss_file rss_shmem pgtables_bytes swapents oom_score_adj name
Jan 10 17:59:32 prxmx kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=systemd-journald.service,mems_allowed=0,global_oom,task_memcg=/lxc/104/ns/user.slic>
Jan 10 17:59:32 prxmx kernel: Out of memory: Killed process 8243 ((sd-pam)) total-vm:21164kB, anon-rss:1712kB, file-rss:336kB, shmem-rss:0kB, UID:100000 pgtables:80kB oom_s>
Jan 10 17:59:32 prxmx kernel: CPU 2/KVM invoked oom-killer: gfp_mask=0x140cca(GFP_HIGHUSER_MOVABLE|__GFP_COMP), order=0, oom_score_adj=0
Jan 10 17:59:32 prxmx kernel:  oom_kill_process.cold+0x8/0x87
Jan 10 17:59:32 prxmx kernel: [  pid  ]   uid  tgid total_vm      rss rss_anon rss_file rss_shmem pgtables_bytes swapents oom_score_adj name
Jan 10 17:59:32 prxmx kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=qemu.slice,mems_allowed=0,global_oom,task_memcg=/qemu.slice/110.scope,task=kvm,pid=>
Jan 10 17:59:32 prxmx kernel: Out of memory: Killed process 2929461 (kvm) total-vm:9645660kB, anon-rss:2709832kB, file-rss:2408kB, shmem-rss:0kB, UID:0 pgtables:10428kB oom>
Jan 10 17:59:32 prxmx systemd[1]: 110.scope: A process of this unit has been killed by the OOM killer.
Jan 10 17:59:32 prxmx systemd[1]: 110.scope: Failed with result 'oom-kill'.
Jan 10 17:59:32 prxmx systemd[1]: user@0.service: A process of this unit has been killed by the OOM killer.
Jan 10 17:59:32 prxmx systemd[1]: user@0.service: Main process exited, code=killed, status=9/KILL
Jan 10 17:59:32 prxmx systemd[1]: user-0.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:51 prxmx systemd[1]: qemu.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:51 prxmx systemd[1]: user-0.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:51 prxmx systemd[1]: user.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:51 prxmx systemd[1]: qemu.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:51 prxmx systemd[1]: user-0.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:51 prxmx systemd[1]: user.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:52 prxmx systemd[1]: qemu.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:52 prxmx systemd[1]: user-0.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:52 prxmx systemd[1]: user.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:54 prxmx systemd[1]: user.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:54 prxmx systemd[1]: user-0.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:08:54 prxmx systemd[1]: qemu.slice: A process of this unit has been killed by the OOM killer.
Jan 10 18:22:00 prxmx systemd[1]: systemd-rfkill.socket: Deactivated successfully.
Jan 10 18:22:00 prxmx systemd[1]: Closed systemd-rfkill.socket - Load/Save RF Kill Switch Status /dev/rfkill Watch.


Der andere Befehl hat mir nichts ausgegeben, sondern nur eine "Eingabe" Zeile geöffnet. Ich habs mal mit Hilfe von KI probiert. Ist das der gewünschte Output?
Bash:
grep -h "memory:" /etc/pve/lxc/*.conf /etc/pve/qemu-server/*.conf | awk -F': ' '{sum+=$2} END{printf "Total provisioned: %d MiB (%.2f GiB)\n", sum, sum/1024}'
Total provisioned: 67584 MiB (66.00 GiB)
 
Sorry, es hatte ein ' am Ende gefehlt. Ich nutze ein Ballooning target von 85 aber wenn du kein Ballooning für die Gäste nutzt ist das eh egal. Die Frage ist nur warum Der Speicher so wenig wurde, dass eine OOM Aktion nötig war. Wie sieht top denn ohne Laufende Gäste aus?
 
Ausgabe top ohne laufenden VMs:
Bash:
top - 17:26:42 up 1 day, 23:04,  2 users,  load average: 1.20, 1.42, 3.24
Tasks: 547 total,   1 running, 546 sleeping,   0 stopped,   0 zombie
%Cpu(s):  0.1 us,  0.1 sy,  0.0 ni, 99.8 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
MiB Mem : 127883.8 total,  53560.9 free,  71599.1 used,   4006.1 buff/cache
MiB Swap:   8192.0 total,   8192.0 free,      0.0 used.  56284.7 avail Mem

    PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND
   2416 root      20   0  194608 130692  14456 S   2.0   0.1  71:09.59 pvestatd
1933118 www-data  20   0  234448 168192  14420 S   0.7   0.1   0:01.39 pveproxy worker
1941864 www-data  20   0  230888 163820  12428 S   0.7   0.1   0:00.31 pveproxy worker
   1873 root      10 -10 2378688  24012   7224 S   0.3   0.0   5:31.23 ovs-vswitchd
1942969 root      20   0   10604   6124   3808 R   0.3   0.0   0:00.04 top
      1 root      20   0   25576  16328  10736 S   0.0   0.0   0:03.16 systemd
      2 root      20   0       0      0      0 S   0.0   0.0   0:04.64 kthreadd
      3 root      20   0       0      0      0 S   0.0   0.0   0:00.00 pool_workqueue_release
      4 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-rcu_gp
      5 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-sync_wq
      6 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-kvfree_rcu_reclaim
      7 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-slub_flushwq
      8 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-netns
     11 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/0:0H-events_highpri
     13 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-mm_percpu_wq
     14 root      20   0       0      0      0 S   0.0   0.0   0:03.21 ksoftirqd/0
     15 root      20   0       0      0      0 I   0.0   0.0   0:40.92 rcu_preempt
     16 root      20   0       0      0      0 S   0.0   0.0   0:00.15 rcu_exp_par_gp_kthread_worker/1
     17 root      20   0       0      0      0 S   0.0   0.0   0:00.26 rcu_exp_gp_kthread_worker
     18 root      rt   0       0      0      0 S   0.0   0.0   0:13.32 migration/0
     19 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/0
     20 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/0
     21 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/1
     22 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/1
     23 root      rt   0       0      0      0 S   0.0   0.0   0:28.94 migration/1
     24 root      20   0       0      0      0 S   0.0   0.0   0:02.52 ksoftirqd/1
     27 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/2
     28 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/2
     29 root      rt   0       0      0      0 S   0.0   0.0   0:16.10 migration/2
     30 root      20   0       0      0      0 S   0.0   0.0   0:01.95 ksoftirqd/2
     33 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/3
     34 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/3
     35 root      rt   0       0      0      0 S   0.0   0.0   0:32.87 migration/3
     36 root      20   0       0      0      0 S   0.0   0.0   0:01.54 ksoftirqd/3
     39 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/4
     40 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/4
     41 root      rt   0       0      0      0 S   0.0   0.0   0:26.20 migration/4
     42 root      20   0       0      0      0 S   0.0   0.0   0:00.76 ksoftirqd/4
     45 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/5
     46 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/5
     47 root      rt   0       0      0      0 S   0.0   0.0   0:18.69 migration/5
     48 root      20   0       0      0      0 S   0.0   0.0   0:00.44 ksoftirqd/5
     50 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/5:0H-events_highpri
     51 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/6
     52 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/6
     53 root      rt   0       0      0      0 S   0.0   0.0   0:05.25 migration/6
     54 root      20   0       0      0      0 S   0.0   0.0   0:00.16 ksoftirqd/6
     56 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/6:0H-events_highpri
     57 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/7
     58 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/7
     59 root      rt   0       0      0      0 S   0.0   0.0   0:04.50 migration/7
     60 root      20   0       0      0      0 S   0.0   0.0   0:00.12 ksoftirqd/7
     62 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/7:0H-events_highpri
     63 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/8
     64 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/8
     65 root      rt   0       0      0      0 S   0.0   0.0   0:05.23 migration/8
     66 root      20   0       0      0      0 S   0.0   0.0   0:00.19 ksoftirqd/8
     68 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/8:0H-events_highpri
     69 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/9
     70 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/9
     71 root      rt   0       0      0      0 S   0.0   0.0   0:04.50 migration/9
     72 root      20   0       0      0      0 S   0.0   0.0   0:00.15 ksoftirqd/9
     74 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/9:0H-events_highpri
     75 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/10
     76 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/10
     77 root      rt   0       0      0      0 S   0.0   0.0   0:03.62 migration/10
     78 root      20   0       0      0      0 S   0.0   0.0   0:00.07 ksoftirqd/10
     80 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/10:0H-events_highpri
     81 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/11
     82 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/11
     83 root      rt   0       0      0      0 S   0.0   0.0   0:02.90 migration/11
     84 root      20   0       0      0      0 S   0.0   0.0   0:00.06 ksoftirqd/11
     86 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/11:0H-events_highpri
     87 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/12
     88 root     -51   0       0      0      0 S   0.0   0.0   0:00.00 idle_inject/12
     89 root      rt   0       0      0      0 S   0.0   0.0   0:01.70 migration/12
     90 root      20   0       0      0      0 S   0.0   0.0   0:00.52 ksoftirqd/12
     92 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/12:0H-events_highpri
     93 root      20   0       0      0      0 S   0.0   0.0   0:00.00 rcu_exp_par_gp_kthread_worker/2
     94 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/13

Jellyfin VM herunterfahren hat sich auch so verhalten wie erwartet. Die Maschine hat fast genau die 16GB die ich ihr zugewiesen habe, freigegeben.
 
Ich denke das zeigt deutlich, dass es nicht die Gäste selbst sind. Der Speicher ist immer noch sehr voll. Vielleicht irgendwo ein Speicher Leck?
Ich kenne mich mit ovs nicht aus, eventuell kann das aber auch wie ARC Speicher "unsichtbar" benutzen.
 
Deine Maschine hat 67GB genutzen Ram obwohl alle VMs heruntergefahren sind? Du hast irgendwo ein anderes Problem am System. Das ist nicht normal und dafür muss und wird es irgendwo eine Erklärung geben.
 
Last edited:
  • Like
Reactions: UdoB
Kannst du bitte mal während alle VMs aus sind:
  • vmstat -a
  • vmstat -s
  • ps aux --sort=-%mem | head -10
  • cat /proc/meminfo
 
Last edited:
@Impact Das mit dem Speicher Leck vermute ich, aber ich habe echt keine Ahnung wie man das hier findet. Aufgetreten ist der Fehler zum ersten Mal am 06.01.2026, das Upgrade auf 9.1 habe ich Mitte Dezember gemacht, daher muss das eigentlich mit irgendeinem Patch in diesem Zeitraum gekommen sein.

@fstrankowski Klar gerne:

Ausgabe vmstat -a:
Bash:
procs -----------memory---------- ---swap-- -----io---- -system-- -------cpu-------
 r  b   swpd   free  inact active   si   so    bi    bo   in   cs us sy id wa st gu
 1  0      0 55049948 666616 3979356    0    0 478746 159612 12183    6  0  1 50 48  0  1

Ausgabe vmstat -s:
Bash:
    130953056 K total memory
     73101100 K used memory
      3976672 K active memory
       666724 K inactive memory
     55047820 K free memory
       182924 K buffer memory
      3934036 K swap cache
      8388604 K total swap
            0 K used swap
      8388604 K free swap
      5106454 non-nice user cpu ticks
           25 nice user cpu ticks
      4370953 system cpu ticks
    204027027 idle cpu ticks
    197529192 IO-wait cpu ticks
            0 IRQ cpu ticks
       100285 softirq cpu ticks
            0 stolen cpu ticks
      4243901 non-nice guest cpu ticks
            0 nice guest cpu ticks
  82224010328 K paged in
  27413222617 K paged out
          183 pages swapped in
          321 pages swapped out
   2092628458 interrupts
   2498889836 CPU context switches
   1768065751 boot time
      1972284 forks

Ausgabe ps aux --sort=-%mem | head -10:
Bash:
USER         PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
www-data    2456  0.0  0.1 220180 177024 ?       Ss   Jan10   0:02 pveproxy
www-data 1953112  0.1  0.1 229696 160976 ?       S    17:38   0:02 pveproxy worker
www-data 1954558  0.1  0.1 229580 160692 ?       S    17:40   0:01 pveproxy worker
www-data 1965508  0.1  0.1 229328 159872 ?       S    17:55   0:00 pveproxy worker
root     1955729  0.4  0.1 228068 156384 ?       S    17:42   0:06 pvedaemon worker
root     1963493  0.4  0.1 228072 156004 ?       S    17:53   0:03 pvedaemon worker
root     1972417  0.0  0.1 227624 155128 ?       S    18:06   0:00 pvedaemon worker
root        2444  0.0  0.1 218952 149072 ?       Ss   Jan10   0:01 pvedaemon
root        2416  2.5  0.0 194608 130696 ?       Ss   Jan10  72:25 pvestatd

Ausgabe cat /proc/meminfo:
Bash:
MemTotal:       130953056 kB
MemFree:        55049564 kB
MemAvailable:   57853852 kB
Buffers:          182976 kB
Cached:          3413924 kB
SwapCached:            0 kB
Active:          3972900 kB
Inactive:         666840 kB
Active(anon):    1110580 kB
Inactive(anon):        0 kB
Active(file):    2862320 kB
Inactive(file):   666840 kB
Unevictable:       47596 kB
Mlocked:           47596 kB
SwapTotal:       8388604 kB
SwapFree:        8388604 kB
Zswap:                 0 kB
Zswapped:              0 kB
Dirty:               276 kB
Writeback:             0 kB
AnonPages:       1090532 kB
Mapped:           133848 kB
Shmem:             52120 kB
KReclaimable:     520020 kB
Slab:           62521500 kB
SReclaimable:     520020 kB
SUnreclaim:     62001480 kB
KernelStack:       10128 kB
PageTables:        13232 kB
SecPageTables:      2320 kB
NFS_Unstable:          0 kB
Bounce:                0 kB
WritebackTmp:          0 kB
CommitLimit:    73865132 kB
Committed_AS:    2608292 kB
VmallocTotal:   34359738367 kB
VmallocUsed:      592304 kB
VmallocChunk:          0 kB
Percpu:            24288 kB
HardwareCorrupted:     0 kB
AnonHugePages:         0 kB
ShmemHugePages:        0 kB
ShmemPmdMapped:        0 kB
FileHugePages:     47104 kB
FilePmdMapped:         0 kB
CmaTotal:              0 kB
CmaFree:               0 kB
Unaccepted:            0 kB
Balloon:               0 kB
HugePages_Total:       0
HugePages_Free:        0
HugePages_Rsvd:        0
HugePages_Surp:        0
Hugepagesize:       2048 kB
Hugetlb:               0 kB
DirectMap4k:      358188 kB
DirectMap2M:     9168896 kB
DirectMap1G:    123731968 kB
 
Irgendwo werden bei dir knapp 65 GB RAM für das System verwendet (62GiB Slab). Wie ist dein Netzwerk aufgebaut? OVSwitch?

Gib mal bitte während alle VMs aus sind:
  • slabtop -o
 
Last edited:
@fstrankowski: Ja 3x OVS Bridges, 2x davon in Benutzung & eine Linux Bridge. Diese Setup habe ich seit ich mit Proxmox angefangen habe.

Ausgabe um die niedrigen Werte gekürzt, da ich das Zeichen Limit gesprengt hab.

Ausgabe slabtop -o:
Bash:
Active / Total Objects (% used)    : 20897818 / 21357678 (97.8%)
 Active / Total Slabs (% used)      : 2038274 / 2038274 (100.0%)
 Active / Total Caches (% used)     : 394 / 463 (85.1%)
 Active / Total Size (% used)       : 62370451.41K / 62429481.48K (99.9%)
 Minimum / Average / Maximum Object : 0.01K / 2.92K / 16.00K

  OBJS ACTIVE  USE OBJ SIZE  SLABS OBJ/SLAB CACHE SIZE NAME
15313792 15313573  99%    4.00K 1914224        8  61255168K kmalloc-rnd-03-4k
836332 831438  99%    0.23K  24598       34    196784K arc_buf_hdr_t_full
743736 663774  89%    0.09K  17708       42     70832K abd_t
707072 706716  99%    0.03K   5524      128     22096K kmalloc-rnd-03-32
566784 462234  81%    0.03K   4428      128     17712K kmalloc-rcl-32
469184 468291  99%    0.06K   7331       64     29324K kmalloc-rnd-03-64
191310 191295  99%    0.09K   4555       42     18220K kmalloc-rnd-03-96
181120  33500  18%    0.06K   2830       64     11320K dmaengine-unmap-2
171264 168036  98%    0.06K   2676       64     10704K kmalloc-rcl-64
138306 117123  84%    0.19K   3293       42     26344K dentry
109572  94593  86%    0.09K   2382       46      9528K lsm_inode_cache
108064 108046  99%    0.12K   3377       32     13508K kmalloc-rnd-03-128
104496 104486  99%    0.19K   2488       42     19904K kmalloc-rnd-03-192
 85839  85832  99%    0.10K   2201       39      8804K buffer_head
 77880  75121  96%    0.13K   2596       30     10384K kernfs_node_cache
 63584  63563  99%    2.00K   3974       16    127168K kmalloc-rnd-03-2k
 60416  60402  99%    0.50K   1888       32     30208K kmalloc-rnd-03-512
 58168  46707  80%    0.36K   1322       44     21152K dmu_buf_impl_t
 52672  52651  99%    1.00K   1646       32     52672K kmalloc-rnd-03-1k
 51816  50371  97%    0.93K   1524       34     48768K dnode_t
 46496  44309  95%    0.50K   1453       32     23248K kmalloc-rnd-13-512
 43790  43720  99%    1.09K   1510       29     48320K zfs_znode_cache
 43712  43674  99%    0.25K   1366       32     10928K sa_cache
 42208  42208 100%    0.25K   1319       32     10552K kmalloc-rnd-03-256
 35952  31931  88%    0.07K    642       56      2568K vmap_area
 23800  23320  97%    0.57K    850       28     13600K radix_tree_node
 22144  13434  60%    0.50K    692       32     11072K zio_buf_comb_512
 21504   7372  34%    0.03K    168      128       672K arc_buf_t
 20706  19622  94%    0.09K    493       42      1972K kmalloc-rcl-96
 19456  17408  89%    0.01K     38      512       152K kmalloc-rnd-02-8
 18450  17023  92%    0.62K    738       25     11808K inode_cache
 17920  17322  96%    0.02K     70      256       280K kmalloc-rnd-11-16
 17724  15375  86%    0.19K    422       42      3376K vm_area_struct
 16896  16896 100%    0.01K     33      512       132K kmalloc-rnd-11-8
 16218  16218 100%    0.04K    159      102       636K extent_status
 15296  13159  86%    0.06K    239       64       956K anon_vma_chain
 14790  14786  99%    1.10K    510       29     16320K ext4_inode_cache
 13824  13824 100%    0.01K     27      512       108K kmalloc-rnd-03-8
 12800  12800 100%    0.01K     25      512       100K kmalloc-cg-8
 12800  12800 100%    0.01K     25      512       100K kmalloc-rnd-06-8
 12288  12288 100%    0.01K     24      512        96K memdup_user-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-rnd-13-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-rnd-10-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-rnd-09-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-rnd-05-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-rnd-04-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-8
 11776   8885  75%    0.06K    184       64       736K kmalloc-rnd-13-64
 11264  11264 100%    0.01K     22      512        88K kmalloc-rnd-12-8
 10752  10752 100%    0.01K     21      512        84K kmalloc-rnd-15-8
 10496  10151  96%    0.03K     82      128       328K kmalloc-rnd-13-32
 10304  10304 100%    0.06K    161       64       644K kmalloc-rnd-05-64
 10048   8987  89%    0.50K    314       32      5024K kmalloc-rnd-05-512
  9728   9516  97%    0.03K     76      128       304K kmalloc-cg-32
  9690   9031  93%    0.02K     57      170       228K lsm_file_cache
  9344   9344 100%    0.05K    128       73       512K ftrace_event_field
  9243   7940  85%    0.10K    237       39       948K anon_vma
  9216   8936  96%    0.03K     72      128       288K kmalloc-rnd-11-32
  9216   9216 100%    0.01K     18      512        72K kmalloc-rnd-07-8
  8832   7605  86%    0.06K    138       64       552K kmalloc-cg-64
  8556   6814  79%    0.69K    186       46      5952K proc_inode_cache
  7168   6907  96%    0.50K    224       32      3584K kmalloc-rnd-12-512
  7168   7168 100%    0.01K     14      512        56K kmalloc-rnd-08-8
  6400   4318  67%    0.25K    200       32      1600K maple_node
  6400   6400 100%    0.02K     25      256       100K kmalloc-cg-16
  6400   6400 100%    0.02K     25      256       100K kmalloc-rnd-06-16
  6400   6400 100%    0.02K     25      256       100K kmalloc-rnd-04-16
  6384   5107  79%    0.19K    152       42      1216K filp
  6174   5942  96%    0.19K    147       42      1176K kmalloc-rnd-13-192
  6144   6144 100%    0.02K     24      256        96K ep_head
  6144   6144 100%    0.02K     24      256        96K memdup_user-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-15-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-13-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-10-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-09-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-08-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-05-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-03-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-02-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-01-16
  5780   5355  92%    0.05K     68       85       272K zio_link_cache
  5754   5754 100%    0.09K    137       42       548K kmalloc-rnd-13-96
  5632   5632 100%    0.01K     11      512        44K kmalloc-rnd-14-8
  5632   4222  74%    0.25K    176       32      1408K kmalloc-rnd-05-256
  5632   5632 100%    0.01K     11      512        44K kmalloc-rnd-01-8
  5610   3690  65%    0.08K    110       51       440K Acpi-State
  5376   5376 100%    0.02K     21      256        84K kmalloc-16
  5364   5364 100%    0.88K    149       36      4768K fuse_inode
  5355   5355 100%    0.05K     63       85       252K shared_policy_node
  5184   4928  95%    0.06K     81       64       324K kmalloc-rnd-15-64
  5050   4875  96%    0.63K    202       25      3232K debugfs_inode_cache
  5040   4632  91%    0.09K    120       42       480K kmalloc-rnd-06-96
  4800   3709  77%    1.00K    150       32      4800K zio_buf_comb_1024
  4675   4584  98%    0.31K    187       25      1496K bio-264
  4578   4267  93%    0.19K    109       42       872K pid
  4472   4368  97%    0.15K    172       26       688K sio_cache_1
  4384   4265  97%    0.12K    137       32       548K eventpoll_epi
  4380   4260  97%    0.13K    146       30       584K sio_cache_0
  4352   4352 100%    0.03K     34      128       136K kmalloc-rnd-12-32
  4352   4352 100%    0.03K     34      128       136K kmalloc-rnd-01-32
  4320   4192  97%    0.50K    135       32      2160K pool_workqueue
  4100   3872  94%    0.77K    100       41      3200K shmem_inode_cache
  4096   4096 100%    0.02K     16      256        64K kmalloc-rnd-12-16
  4096   3857  94%    0.06K     64       64       256K kmalloc-rnd-07-64
  4096   4096 100%    0.03K     32      128       128K kmalloc-rnd-04-32
  4074   3864  94%    0.19K     97       42       776K bio-136
  3936   3836  97%    0.12K    123       32       492K kmalloc-rcl-128
  3840   3584  93%    0.03K     30      128       120K kmalloc-rnd-10-32
  3840   3840 100%    0.02K     15      256        60K kmalloc-rnd-07-16
  3822   3822 100%    0.09K     91       42       364K trace_event_file
  3784   3608  95%    0.18K     86       44       688K kvm_mmu_page_header
  3780   3616  95%    0.09K     90       42       360K kmalloc-rnd-04-96
  3744   3582  95%    0.12K    117       32       468K kmalloc-rnd-13-128
  3584   3584 100%    0.03K     28      128       112K kmalloc-32
  3528   3528 100%    0.09K     84       42       336K kmalloc-rnd-11-96
  3456   3456 100%    0.03K     27      128       108K kmalloc-rnd-06-32
  3424   3305  96%    1.00K    107       32      3424K kmalloc-rnd-13-1k
  3360   3198  95%    0.19K     80       42       640K proc_dir_entry
  3328   3328 100%    0.03K     26      128       104K kmalloc-rnd-02-32
  3328   3201  96%    0.12K    104       32       416K kmalloc-rnd-01-128
  3136   3136 100%    0.06K     49       64       196K kmalloc-rnd-02-64
  3072   3072 100%    0.03K     24      128        96K xsk_generic_xmit_cache
  3072   3072 100%    0.03K     24      128        96K memdup_user-32
  3072   3072 100%    0.03K     24      128        96K pidfs_attr_cache
  3072   3072 100%    0.03K     24      128        96K kmalloc-rnd-15-32
  3072   3072 100%    0.03K     24      128        96K kmalloc-rnd-09-32
  3072   3072 100%    0.03K     24      128        96K kmalloc-rnd-08-32
  3072   3072 100%    0.03K     24      128        96K kmalloc-rnd-07-32
  3072   3072 100%    0.03K     24      128        96K kmalloc-rnd-05-32
  3036   2898  95%    0.69K     66       46      2112K skbuff_small_head
  3003   2892  96%    0.81K     77       39      2464K sock_inode_cache
  2904   2772  95%    0.36K     66       44      1056K dbuf_dirty_record_t
  2816   2816 100%    0.03K     22      128        88K kmalloc-rnd-14-32
  2816   2816 100%    0.12K     88       32       352K kmalloc-rnd-09-128
  2814   2611  92%    0.38K     67       42      1072K mnt_cache
  2752   2752 100%    0.06K     43       64       172K kmalloc-rnd-14-64
  2730   2600  95%    0.19K     65       42       520K kmalloc-cg-192
  2604   2604 100%    0.09K     62       42       248K kmalloc-cg-96
  2560   2560 100%    0.02K     10      256        40K kmalloc-rnd-14-16
  2496   2496 100%    0.06K     39       64       156K kmalloc-rnd-09-64
  2496   2496 100%    0.06K     39       64       156K kmalloc-rnd-04-64
  2448   2448 100%    0.04K     24      102        96K pde_opener
  2436   2436 100%    0.09K     58       42       232K kmalloc-rnd-12-96
  2394   2394 100%    0.09K     57       42       228K kmalloc-rnd-15-96
  2378   2296  96%    0.38K     58       41       928K zil_lwb_cache
  2368   2240  94%    0.25K     74       32       592K nf_conntrack
  2368   2287  96%    0.25K     74       32       592K bio-200
  2368   2046  86%    0.25K     74       32       592K skbuff_head_cache
  2322   1945  83%   16.00K   1161        2     37152K zio_buf_comb_16384
  2304   2304 100%    0.03K     18      128        72K pending_reservation
  2304   2232  96%    0.25K     72       32       576K kmalloc-rnd-13-256
  2268   2268 100%    0.19K     54       42       432K kmalloc-rnd-09-192
  2256   2256 100%    0.16K     94       24       376K sio_cache_2
  2175   2050  94%    0.31K     87       25       696K bio-256
  2004   1942  96%    8.00K    501        4     16032K kmalloc-rnd-06-8k
  1984   1984 100%    0.12K     62       32       248K kmalloc-cg-128
  1984   1805  90%    0.25K     62       32       496K kmalloc-rnd-10-256
  1984   1984 100%    0.12K     62       32       248K kmalloc-rnd-05-128
  1953   1953 100%    0.26K     63       31       504K tw_sock_TCPv6
  1932   1819  94%    1.12K     69       28      2208K signal_cache
  1920   1629  84%    0.50K     60       32       960K kmalloc-rnd-06-512
  1856   1856 100%    0.06K     29       64       116K kmalloc-rnd-11-64
  1848   1848 100%    0.09K     44       42       176K kmalloc-rnd-14-96
  1792   1728  96%    1.00K     56       32      1792K iommu_iova_magazine
  1792   1792 100%    0.06K     28       64       112K kmalloc-rnd-08-64
  1792   1792 100%    0.06K     28       64       112K kmalloc-rnd-06-64
  1785   1785 100%    0.08K     35       51       140K sigqueue
  1764   1764 100%    0.09K     42       42       168K kmalloc-rnd-10-96
  1752   1752 100%    0.05K     24       73        96K mb_cache_entry
 
So langsam kommen wir ja der Antwort näher :cool:
  • cat /sys/kernel/slab/kmalloc-rnd-03-4k/aliase
  • echo 1 > /proc/sys/vm/drop_caches;echo 2 > /proc/sys/vm/drop_caches;echo 3 > /proc/sys/vm/drop_caches;slabtop -o

  • Der zweite Befehl löscht einmal alle Caches und gibt danach nochmal slabtop aus, bitte das nach dem cache-löschen auch posten.
  • Hast du mal einen älteren Kernel versucht?
  • Was läuft noch auf dem Node?
  • Was ist die genaue Konfiguration, abgesehen von OVS
  • bitte auch einmal ein dpkg -l von dem PVE Host

  • execsnoop-bpfcc -tx > execsnoop.log
Der letzte Befehl traced/logged alle ausgeführten Prozesse via exec() syscalls. Das wird eine größere Datei, lass dass bitte so 5-10 Minuten laufen. Bedenke: Da werden _alle_ neuen Prozesse geloggt, achte also darauf, dass Du hier keine privaten Daten leakst (e.g.: mounts von externen Storage-Shares, aufrufen von URLs welche via irgendwelchen Cron Scripten laufen etc.pp.). Wenn Du den Befehl nicht hast, dann bitte das bpfcc-tools Paket installieren (apt install -y bpfcc-tools)
 
Last edited:
Seit dem 19.12.2025 läuft bei mir Kernel 6.17.4-2-pve. Nein, ein Downgrad habe ich nicht probiert.

Auf dem Node läuft folgendes:
- 1x LXC Container mit einem Reverse Proxy
- 1x Opnsense
- 5x VMs mit Debian 13
- 1x Technitium als Container​
- 1x Nextcloud native Installation​
- 1x Jellyfin native Installation mit 4x HDDs als Passthrough via Device-ID mapping​
- 1x Authentik als Container​
- 1x Dockerhost mit Bookstack, Mealie, Stirling-PDF, Vaultwarden, Jwilder/Nginx-Proxy als Container​
Genau Konfiguration:
- PVE installiert auf einer 1TB WD RED NVMe (Standard Installation)
- 1x ZFS Pool bestehend aus 2x 2TB NVMes für die OS Festplatten der VMs
- 4x HDDs via Device Mapping an Jellyfin VM durchgereicht
- 1x Intel Arc A40 ebenfalls an Jellyfin weitergegeben
- 1x PBS 4.x (läuft auf separatem UGREEN NAS) als Backup Speicher eingebunden (1x S3 bei Hetzner & 1x Lokal)
- pve-no-subscription als Repo (Trixie)
- 3x NIC (2x 10G, 1x 1G)
- 1x Linux Bridge auf einem 10G Interface
- 3x OVS Bridges (2x aktiv in Nutzung für die Opnsense)

Das wars dann auch schon. Brauchst du noch eine Info bzgl. der Konfiguration?

Ausgabe cat /sys/kernel/slab/kmalloc-rnd-03-4k/aliases:
Bash:
0

Ausgabe echo 1 &gt; /proc/sys/vm/drop_caches;echo 2 &gt; /proc/sys/vm/drop_caches;echo 3 &gt; /proc/sys/vm/drop_caches;slabtop -o:
Bash:
Active / Total Objects (% used)    : 19229234 / 20786901 (92.5%)
 Active / Total Slabs (% used)      : 2025151 / 2025151 (100.0%)
 Active / Total Caches (% used)     : 394 / 463 (85.1%)
 Active / Total Size (% used)       : 62076317.69K / 62293008.33K (99.7%)
 Minimum / Average / Maximum Object : 0.01K / 3.00K / 16.00K

  OBJS ACTIVE  USE OBJ SIZE  SLABS OBJ/SLAB CACHE SIZE NAME
15313832 15313606  99%    4.00K 1914229        8  61255328K kmalloc-rnd-03-4k
849898 395151  46%    0.23K  24997       34    199976K arc_buf_hdr_t_full
722274 264575  36%    0.09K  17197       42     68788K abd_t
707072 706855  99%    0.03K   5524      128     22096K kmalloc-rnd-03-32
556160 204629  36%    0.03K   4345      128     17380K kmalloc-rcl-32
469312 467980  99%    0.06K   7333       64     29332K kmalloc-rnd-03-64
191310 191295  99%    0.09K   4555       42     18220K kmalloc-rnd-03-96
156160  49694  31%    0.06K   2440       64      9760K kmalloc-rcl-64
108064 108011  99%    0.12K   3377       32     13508K kmalloc-rnd-03-128
104496 104486  99%    0.19K   2488       42     19904K kmalloc-rnd-03-192
 75960  74821  98%    0.13K   2532       30     10128K kernfs_node_cache
 63584  63568  99%    2.00K   3974       16    127168K kmalloc-rnd-03-2k
 60416  60400  99%    0.50K   1888       32     30208K kmalloc-rnd-03-512
 57948  46857  80%    0.36K   1317       44     21072K dmu_buf_impl_t
 54272  16842  31%    0.06K    848       64      3392K dmaengine-unmap-2
 52672  52651  99%    1.00K   1646       32     52672K kmalloc-rnd-03-1k
 51816  50365  97%    0.93K   1524       34     48768K dnode_t
 46496  44373  95%    0.50K   1453       32     23248K kmalloc-rnd-13-512
 42208  42208 100%    0.25K   1319       32     10552K kmalloc-rnd-03-256
 35952  25699  71%    0.07K    642       56      2568K vmap_area
 33642  14623  43%    0.19K    801       42      6408K dentry
 30912  16482  53%    0.09K    672       46      2688K lsm_inode_cache
 26754   8529  31%    0.10K    686       39      2744K buffer_head
 19968   7823  39%    0.03K    156      128       624K arc_buf_t
 19456  17408  89%    0.01K     38      512       152K kmalloc-rnd-02-8
 17920  17738  98%    0.02K     70      256       280K kmalloc-rnd-11-16
 17514  15445  88%    0.19K    417       42      3336K vm_area_struct
 17472  12112  69%    0.09K    416       42      1664K kmalloc-rcl-96
 16896  16896 100%    0.01K     33      512       132K kmalloc-rnd-11-8
 14912  12948  86%    0.06K    233       64       932K anon_vma_chain
 13824  13824 100%    0.01K     27      512       108K kmalloc-rnd-03-8
 12800  12800 100%    0.01K     25      512       100K kmalloc-cg-8
 12800  12800 100%    0.01K     25      512       100K kmalloc-rnd-06-8
 12288  12288 100%    0.01K     24      512        96K memdup_user-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-rnd-13-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-rnd-10-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-rnd-09-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-rnd-05-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-rnd-04-8
 12288  12288 100%    0.01K     24      512        96K kmalloc-8
 11264  11264 100%    0.01K     22      512        88K kmalloc-rnd-12-8
 10752  10752 100%    0.01K     21      512        84K kmalloc-rnd-15-8
 10432  10432 100%    0.06K    163       64       652K kmalloc-rnd-05-64
 10208   2984  29%    0.50K    319       32      5104K zio_buf_comb_512
  9632   5710  59%    0.50K    301       32      4816K kmalloc-rnd-05-512
  9600   8382  87%    0.06K    150       64       600K kmalloc-cg-64
  9464   5544  58%    0.57K    338       28      5408K radix_tree_node
  9350   9024  96%    0.02K     55      170       220K lsm_file_cache
  9344   9344 100%    0.05K    128       73       512K ftrace_event_field
  9243   8454  91%    0.10K    237       39       948K anon_vma
  9216   9216 100%    0.01K     18      512        72K kmalloc-rnd-07-8
  8960   8680  96%    0.03K     70      128       280K kmalloc-rnd-11-32
  8768   6430  73%    0.06K    137       64       548K kmalloc-rnd-13-64
  8576   7492  87%    0.03K     67      128       268K kmalloc-rnd-13-32
  8175   4811  58%    0.62K    327       25      5232K inode_cache
  7680   7680 100%    0.01K     15      512        60K kmalloc-rnd-08-8
  7008   6878  98%    0.50K    219       32      3504K kmalloc-rnd-12-512
  6496   4311  66%    0.25K    203       32      1624K maple_node
  6468   5835  90%    0.19K    154       42      1232K filp
  6400   5661  88%    0.03K     50      128       200K kmalloc-cg-32
  6400   6400 100%    0.02K     25      256       100K kmalloc-cg-16
  6400   6400 100%    0.02K     25      256       100K kmalloc-rnd-06-16
  6400   6400 100%    0.02K     25      256       100K kmalloc-rnd-04-16
  6174   6052  98%    0.19K    147       42      1176K kmalloc-rnd-13-192
  6144   6144 100%    0.02K     24      256        96K ep_head
  6144   6144 100%    0.02K     24      256        96K memdup_user-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-15-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-13-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-10-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-09-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-08-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-05-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-03-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-02-16
  6144   6144 100%    0.02K     24      256        96K kmalloc-rnd-01-16
  5632   5632 100%    0.01K     11      512        44K kmalloc-rnd-14-8
  5632   5632 100%    0.01K     11      512        44K kmalloc-rnd-01-8
  5610   5202  92%    0.04K     55      102       220K extent_status
  5525   5525 100%    0.05K     65       85       260K shared_policy_node
  5472   3846  70%    0.25K    171       32      1368K kmalloc-rnd-05-256
  5460   5460 100%    0.09K    130       42       520K kmalloc-rnd-13-96
  5376   5376 100%    0.02K     21      256        84K kmalloc-16
  5250   5116  97%    0.63K    210       25      3360K debugfs_inode_cache
  5184   4928  95%    0.06K     81       64       324K kmalloc-rnd-15-64
  5150   4067  78%    0.31K    206       25      1648K bio-264
  5100   5100 100%    0.05K     60       85       240K zio_link_cache
  5040   4257  84%    0.09K    120       42       480K kmalloc-rnd-06-96
  4662   4377  93%    0.19K    111       42       888K pid
  4495   1987  44%    1.10K    155       29      4960K ext4_inode_cache
  4472   4368  97%    0.15K    172       26       688K sio_cache_1
  4380   4260  97%    0.13K    146       30       584K sio_cache_0
  4352   4352 100%    0.03K     34      128       136K kmalloc-rnd-12-32
  4352   4352 100%    0.03K     34      128       136K kmalloc-rnd-01-32
  4223   3854  91%    0.77K    103       41      3296K shmem_inode_cache
  4200   3992  95%    0.09K    100       42       400K kmalloc-rnd-04-96
  4192   4025  96%    0.50K    131       32      2096K pool_workqueue
  4096   4096 100%    0.02K     16      256        64K kmalloc-rnd-12-16
  4096   4096 100%    0.02K     16      256        64K kmalloc-rnd-07-16
  4096   4096 100%    0.03K     32      128       128K kmalloc-rnd-04-32
  4074   3864  94%    0.19K     97       42       776K bio-136
  4029   3508  87%    0.08K     79       51       316K Acpi-State
  4000   2109  52%    1.00K    125       32      4000K zio_buf_comb_1024
  3968   3803  95%    0.03K     31      128       124K kmalloc-rnd-10-32
  3840   3352  87%    0.12K    120       32       480K kmalloc-rnd-13-128
  3822   3822 100%    0.09K     91       42       364K trace_event_file
  3776   3517  93%    0.06K     59       64       236K kmalloc-rnd-07-64
  3680   3117  84%    0.69K     80       46      2560K proc_inode_cache
  3584   3398  94%    0.12K    112       32       448K eventpoll_epi
 
  • Like
Reactions: fstrankowski
Das wars dann auch schon. Brauchst du noch eine Info bzgl. der Konfiguration?
Danke für deine tolle Mitarbeit und die Mühe bei der Formatierung, sowas sieht man wirklich selten aber gerne!

Bitte noch dpkg -l auf dem PVE Host und die Prozesslogs, damit wir sehen können, was auf dem Host wie, wann, was triggert. Habe schon so ein paar Ideen, aber Mutmaßungen bringen uns nicht weiter :-)

Wenn es Dir heute Nacht möglich ist, starte die Kiste bitte bevor Du in die Falle hüpfst einmal neu und lasse sie bis morgen idlen, ohne irgendwelche VMs/LXC zu starten (bitte alle Autostart-Optionen vorher aus machen).
Morgen dann, wenn Du die Kiste brauchst/Zeit hast (wenn möglich schon ein paar Stunden so laufen lassen) dann wieder slabtop -o ausführen.
 
Last edited:
Was möchtest du von dpkg -l sehen? Das sind fast 1000 Zeilen und ich kriegs nicht in einen einzelnen Post. Habs mal als File angehangen. Hoffe das klappt.
 

Attachments

Danke für deine tolle Mitarbeit und die Mühe bei der Formatierung, sowas sieht man wirklich selten aber gerne!

Bitte noch dpkg -l auf dem PVE Host und die Prozesslogs, damit wir sehen können, was auf dem Host wie, wann, was triggert. Habe schon so ein paar Ideen, aber Mutmaßungen bringen uns nicht weiter :-)

Welche Log genau aus /var/log/ brauchst du? syslog?