Habe die Antwort auf meinem iPad getippt da gehen 0 schonmal unter, ja -->Ich habe da nur mit in@ter.net überschireben weil ich meine interenen mailadressen nicht auf Bildern im WWW sehen mag :)
UserID: schau in Dein Log bei dem Fehler hinter lxc-usernsexec sollte der Name übergeben werden...
Wenn jemanden die Antworten hier (offensichtlich) überfordern (so wie auch die Tatsache das Proxmoxx wohl kaum Support für Konfiguration von anderen Herstellern zu leisten vermag) dann ist VMware (die Lösung heisst übrigens ESXi) wohl kaum die richtige Wahl. Aber jeder darf Fahler machen wie er...
Also bei mir habe ich einfach einen User mit dem Namen 10000 erstellt und dem User r/w Rechte gegeben und das PW hinterlegt.
Das hat das Problem gelöst.
Gruß,
Jan
Hi,
die zeigt auf dump --> /mnt/pve/proxmox-syn/dump/ in meinem fall (siehe log) wohin die bei Dir zeigt steht in Deinem Log.
Lösung:
Option A) Schreibrechte für den User 1000 auf dem Verzeichnis einräumen
Option B) Schreib-pfad auf ein Verzeichnis umbiegen in das alle User schreiben dürfen...
Hi,
nur damit das nicht falsch verstanden wird. Die Lösung ist NICHT die Container zu privilegieren, die Lösung ist dem User 100000 schreibrechte auf dem NFS share einzuräumen.
Ich muss mal schauen wo die Synology den Fehler hinloggt, das wäre am einfachsten gewesen (ich konnte nirgends...
Hi,
Danke, das ist auf jeden Fall der Unterschied ...
man kann die Container nicht so ohne weiteres zu privileged um-editieren habe ich grade gemerkt ... mal sehen wie ich den User effizient in das Synology bekomme...
UPDATE: YEP das wars
Gruß,
Jan
Hi,
ich habe ein seltsames Problem und weiss nicht weiter:
VE: 5.4-13
2 VMs
5 LXCs
NFS zur Sicherung (Snapshot) -> Synology NAS
Die beiden VMs und drei der 5 LXCs sichern problemlos auf das NAS
die beiden (neuesten) LXCs nicht...
Log (eine durchlaufende und eine nicht durchlaufende):
108...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.