nfs-kernel-server in LXC, Dienst startet nicht mehr nach PVE-Update

Jun 12, 2019
2
0
6
43
Hallo, ich nutze seit über einem Jahr Proxmox VE.
Bisher ohne Probleme.
Zwischenzeitlich habe ich meine gesamte virtuelle Umgebung dorthin umgezogen.
Nun habe ich letze Woche eine Subscription erstanden und heute morgen den Updateprozess von PVE gestartet.
Das lief auch alles ohne Fehlermeldungen.

Allerdings lässt sich nun der NFS-Server-Dienst in LXCs nicht mehr starten:

Code:
root@nfs:~# systemctl status nfs-kernel-server
* nfs-server.service - NFS server and services
   Loaded: loaded (/lib/systemd/system/nfs-server.service; enabled; vendor preset: enabled)
   Active: failed (Result: exit-code) since Wed 2019-06-12 12:06:56 UTC; 8min ago
  Process: 130 ExecStart=/usr/sbin/rpc.nfsd $RPCNFSDARGS (code=exited, status=1/FAILURE)
  Process: 128 ExecStartPre=/usr/sbin/exportfs -r (code=exited, status=0/SUCCESS)
 Main PID: 130 (code=exited, status=1/FAILURE)

Jun 12 12:06:56 nfs systemd[1]: nfs-server.service: Failed to reset devices.list: Operation not permitted
Jun 12 12:06:56 nfs systemd[1]: Starting NFS server and services...
Jun 12 12:06:56 nfs rpc.nfsd[130]: error starting threads: errno 38 (Function not implemented)
Jun 12 12:06:56 nfs systemd[1]: nfs-server.service: Main process exited, code=exited, status=1/FAILURE
Jun 12 12:06:56 nfs systemd[1]: Failed to start NFS server and services.
Jun 12 12:06:56 nfs systemd[1]: nfs-server.service: Unit entered failed state.
Jun 12 12:06:56 nfs systemd[1]: nfs-server.service: Failed with result 'exit-code'.
root@nfs:~# systemctl status nfs-blkmap.service
* nfs-blkmap.service - pNFS block layout mapping daemon
   Loaded: loaded (/lib/systemd/system/nfs-blkmap.service; disabled; vendor preset: enabled)
   Active: active (running) since Wed 2019-06-12 12:06:56 UTC; 9min ago
  Process: 48 ExecStart=/usr/sbin/blkmapd $BLKMAPDARGS (code=exited, status=0/SUCCESS)
 Main PID: 53 (blkmapd)
    Tasks: 1 (limit: 4915)
   CGroup: /system.slice/nfs-blkmap.service
           `-53 /usr/sbin/blkmapd

Jun 12 12:06:56 nfs blkmapd[53]: open pipe file /run/rpc_pipefs/nfs/blocklayout failed: No such file or directory
Jun 12 12:06:56 nfs systemd[1]: Started pNFS block layout mapping daemon.
root@nfs:~# cat /lib/systemd/system/nfs-blkmap.service
[Unit]
Description=pNFS block layout mapping daemon
DefaultDependencies=no
Conflicts=umount.target
After=run-rpc_pipefs.mount
Requires=run-rpc_pipefs.mount

PartOf=nfs-utils.service

[Service]
Type=forking
PIDFile=/run/blkmapd.pid
EnvironmentFile=-/run/sysconfig/nfs-utils
ExecStart=/usr/sbin/blkmapd $BLKMAPDARGS

[Install]
WantedBy=nfs-client.target
root@nfs:~# ls /run/blkmapd.pid
/run/blkmapd.pid
root@nfs:~# ls /run/rpc_pipefs/nfs
root@nfs:~#

Ich habe bisher keine Lösung gefunden und zum testen einen identischen LXC erstellt, mit dem gleichen Ergebniss.

Infos zum System:
In beiden LXCs läuft ein aktualisiertes Debian 9, erstellt aus "debian-9.0-standard_9.3-1_amd64.tar.gz".
Unter PVE läuft ein ZFS-Pool, dessen Mountpoints an die LXC durchgereicht werden.

pct config original:
Code:
arch: amd64
cores: 2
hostname: xxx
memory: 2048
mp0: /mnt/mediaPool/share,mp=/mnt/share
mp1: /mnt/mediaPool/video,mp=/mnt/video
mp2: /mnt/mediaPool/home/mh,mp=/mnt/home/mh
mp3: /mnt/mediaPool/home/prh,mp=/mnt/home/prh
nameserver: 10.0.2.111
net0: name=eth0,bridge=vmbr0,gw=10.0.0.1,hwaddr=4A:73:1B:52:EC:20,ip=10.0.5.2/16,type=veth
ostype: debian
rootfs: local-zfs:subvol-102-disk-1,size=8G
searchdomain: xxx
swap: 512

pct config test container:
Code:
arch: amd64
cores: 2
hostname: nfs
memory: 1024
mp0: /mnt/mediaPool/share,mp=/mnt/share
mp1: /mnt/mediaPool/video,mp=/mnt/video
mp2: /mnt/mediaPool/home/mh,mp=/mnt/home/mh
mp3: /mnt/mediaPool/home/prh,mp=/mnt/home/prh
nameserver: 10.0.2.111
net0: name=eth0,bridge=vmbr0,firewall=1,gw=10.0.0.1,hwaddr=E2:CA:B6:E0:15:BF,ip=10.0.2.2/16,type=veth
ostype: debian
rootfs: local-zfs:subvol-104-disk-0,size=10G
searchdomain: xxx
swap: 512

Aufgefallen ist das es Änderungen in /etc/apparmor.d/lxc/lxc-default-cgns gegeben hat.
Code:
  mount fstype=cgroup -> /sys/fs/cgroup/**,
- mount fstype=nfs,
- mount fstype=nfs4,
- mount fstype=nfsd,
- mount fstype=rpc_pipefs,
+ mount fstype=cgroup2 -> /sys/fs/cgroup/**,

Die entfernten Einträge habe ich wieder hinzugefügt und testweise auch apparmor gestoppt.
Beides brachte leider nichts.

Für Hilfe, oder Vorschläge wäre ich echt dankbar...
 
Jun 12, 2019
2
0
6
43
Ganz vergessen:
root@xxx:~# pveversion -v
proxmox-ve: 5.4-1 (running kernel: 4.15.18-15-pve)
pve-manager: 5.4-6 (running version: 5.4-6/aa7856c5)
pve-kernel-4.15: 5.4-3
pve-kernel-4.15.18-15-pve: 4.15.18-40
pve-kernel-4.15.17-1-pve: 4.15.17-9
corosync: 2.4.4-pve1
criu: 2.11.1-1~bpo90
glusterfs-client: 3.8.8-1
ksm-control-daemon: 1.2-2
libjs-extjs: 6.0.1-2
libpve-access-control: 5.1-10
libpve-apiclient-perl: 2.0-5
libpve-common-perl: 5.0-52
libpve-guest-common-perl: 2.0-20
libpve-http-server-perl: 2.0-13
libpve-storage-perl: 5.0-43
libqb0: 1.0.3-1~bpo9
lvm2: 2.02.168-pve6
lxc-pve: 3.1.0-3
lxcfs: 3.0.3-pve1
novnc-pve: 1.0.0-3
proxmox-widget-toolkit: 1.0-28
pve-cluster: 5.0-37
pve-container: 2.0-39
pve-docs: 5.4-2
pve-edk2-firmware: 1.20190312-1
pve-firewall: 3.0-22
pve-firmware: 2.0-6
pve-ha-manager: 2.0-9
pve-i18n: 1.1-4
pve-libspice-server1: 0.14.1-2
pve-qemu-kvm: 3.0.1-2
pve-xtermjs: 3.12.0-1
qemu-server: 5.0-52
smartmontools: 6.5+svn4324-1
spiceterm: 3.0-5
vncterm: 1.5-3
zfsutils-linux: 0.7.13-pve1~bpo2

Auf die eingehängten ZFS Mountpoints kann problemlos innerhalb der LXCs zugegriffen werden.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!