[SOLVED] LXC - Failed to add /run/systemd/ask-password to directory watch: No space left on device

fireon

Distinguished Member
Oct 25, 2010
4,473
466
153
Austria/Graz
deepdoc.at
Hallo Leute,

pve-manager/4.4-2/80259e05 (running kernel: 4.4.35-1-pve)

keine Ahnung seit wann, aber in allen LXC Containern passt die Uhrzeit nicht mehr (eine Stunde hinten) dies lies sich beheben in dem die Zeitzone richtig gestellt wurde. Diese war in allen Containern auf Unknown. Alles Ubuntu 16.04. Weiters kommt bei jedem Systemd-Service das man startet, stoppt oder neu startet diese Fehlermeldung:
Code:
systemctl restart apache2.service
Failed to add /run/systemd/ask-password to directory watch: No space left on device
Ich hab dann diesen Artikel gefunden: https://bugzilla.redhat.com/show_bug.cgi?id=894483
Das hat dann aber auch nicht geholfen:
Code:
echo 1048576 > /proc/sys/fs/inotify/max_user_watches
Auch ein Setzen in der Config und neu starten brachte keinen Erfolg. Erst als ich das direkt am PVE Host setzte war die Fehlermeldung in allen Containern verschwunden. War das so richtig? Oder passt da sonst etwas nicht?

Vielen Dank
 
Hallo Leute,

pve-manager/4.4-2/80259e05 (running kernel: 4.4.35-1-pve)

keine Ahnung seit wann, aber in allen LXC Containern passt die Uhrzeit nicht mehr (eine Stunde hinten) dies lies sich beheben in dem die Zeitzone richtig gestellt wurde. Diese war in allen Containern auf Unknown. Alles Ubuntu 16.04. Weiters kommt bei jedem Systemd-Service das man startet, stoppt oder neu startet diese Fehlermeldung:
Code:
systemctl restart apache2.service
Failed to add /run/systemd/ask-password to directory watch: No space left on device
Ich hab dann diesen Artikel gefunden: https://bugzilla.redhat.com/show_bug.cgi?id=894483
Das hat dann aber auch nicht geholfen:
Code:
echo 1048576 > /proc/sys/fs/inotify/max_user_watches
Auch ein Setzen in der Config und neu starten brachte keinen Erfolg. Erst als ich das direkt am PVE Host setzte war die Fehlermeldung in allen Containern verschwunden. War das so richtig? Oder passt da sonst etwas nicht?

Vielen Dank

je mehr container laufen, desto größer der bedarf an inotify watches (und desto eher muss das limit raufgedreht werden). das limit ist kernel-weit und muss also für host + alle container gemeinsam am host gesetzt werden. sh. auch https://bugzilla.proxmox.com/show_bug.cgi?id=1042
 
Hallo Fabian,

danke für den Link. Es laufen hier aktiv aber nur 3 Container. Gehe ich richtig in der Annahme, da ich PVE auch also ZFSstorage nutze und viele Daten drauf habe, das sich das gleich auswirkt?
Also den Wert schreib ich bei unserem Installer defaultmäßig mal höher.
 
Hallo Fabian,

danke für den Link. Es laufen hier aktiv aber nur 3 Container. Gehe ich richtig in der Annahme, da ich PVE auch also ZFSstorage nutze und viele Daten drauf habe, das sich das gleich auswirkt?
Also den Wert schreib ich bei unserem Installer defaultmäßig mal höher.

anzahl der container ist hier nur eine art faustregel (jeder container hat eine gewisse mindestanzahl an inotify watches die verbraucht werden) - es gibt natürlich auch noch andere szenarien in denen der bedarf an inotify watches höher ist.

imho schadets in keinem fall das hoch zu schrauben - verbraucht nur minimal mehr kernel memory, bei aktuellen systemen vernachlässigbar.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!