[SOLVED] LXC - Failed to add /run/systemd/ask-password to directory watch: No space left on device

fireon

Distinguished Member
Oct 25, 2010
4,615
553
183
Austria/Graz
deepdoc.at
Hallo Leute,

pve-manager/4.4-2/80259e05 (running kernel: 4.4.35-1-pve)

keine Ahnung seit wann, aber in allen LXC Containern passt die Uhrzeit nicht mehr (eine Stunde hinten) dies lies sich beheben in dem die Zeitzone richtig gestellt wurde. Diese war in allen Containern auf Unknown. Alles Ubuntu 16.04. Weiters kommt bei jedem Systemd-Service das man startet, stoppt oder neu startet diese Fehlermeldung:
Code:
systemctl restart apache2.service
Failed to add /run/systemd/ask-password to directory watch: No space left on device
Ich hab dann diesen Artikel gefunden: https://bugzilla.redhat.com/show_bug.cgi?id=894483
Das hat dann aber auch nicht geholfen:
Code:
echo 1048576 > /proc/sys/fs/inotify/max_user_watches
Auch ein Setzen in der Config und neu starten brachte keinen Erfolg. Erst als ich das direkt am PVE Host setzte war die Fehlermeldung in allen Containern verschwunden. War das so richtig? Oder passt da sonst etwas nicht?

Vielen Dank
 
Hallo Leute,

pve-manager/4.4-2/80259e05 (running kernel: 4.4.35-1-pve)

keine Ahnung seit wann, aber in allen LXC Containern passt die Uhrzeit nicht mehr (eine Stunde hinten) dies lies sich beheben in dem die Zeitzone richtig gestellt wurde. Diese war in allen Containern auf Unknown. Alles Ubuntu 16.04. Weiters kommt bei jedem Systemd-Service das man startet, stoppt oder neu startet diese Fehlermeldung:
Code:
systemctl restart apache2.service
Failed to add /run/systemd/ask-password to directory watch: No space left on device
Ich hab dann diesen Artikel gefunden: https://bugzilla.redhat.com/show_bug.cgi?id=894483
Das hat dann aber auch nicht geholfen:
Code:
echo 1048576 > /proc/sys/fs/inotify/max_user_watches
Auch ein Setzen in der Config und neu starten brachte keinen Erfolg. Erst als ich das direkt am PVE Host setzte war die Fehlermeldung in allen Containern verschwunden. War das so richtig? Oder passt da sonst etwas nicht?

Vielen Dank

je mehr container laufen, desto größer der bedarf an inotify watches (und desto eher muss das limit raufgedreht werden). das limit ist kernel-weit und muss also für host + alle container gemeinsam am host gesetzt werden. sh. auch https://bugzilla.proxmox.com/show_bug.cgi?id=1042
 
Hallo Fabian,

danke für den Link. Es laufen hier aktiv aber nur 3 Container. Gehe ich richtig in der Annahme, da ich PVE auch also ZFSstorage nutze und viele Daten drauf habe, das sich das gleich auswirkt?
Also den Wert schreib ich bei unserem Installer defaultmäßig mal höher.
 
Hallo Fabian,

danke für den Link. Es laufen hier aktiv aber nur 3 Container. Gehe ich richtig in der Annahme, da ich PVE auch also ZFSstorage nutze und viele Daten drauf habe, das sich das gleich auswirkt?
Also den Wert schreib ich bei unserem Installer defaultmäßig mal höher.

anzahl der container ist hier nur eine art faustregel (jeder container hat eine gewisse mindestanzahl an inotify watches die verbraucht werden) - es gibt natürlich auch noch andere szenarien in denen der bedarf an inotify watches höher ist.

imho schadets in keinem fall das hoch zu schrauben - verbraucht nur minimal mehr kernel memory, bei aktuellen systemen vernachlässigbar.