NFS mount problem nach PVE 8 upgrade

Oct 27, 2022
109
12
18
Moin,

nach upgrade auf PVE 8 funktioniert einer mainer NFS mounts (nfs server läuft direkt auf einem PVE server) nicht mehr.
Das storage welches ich direkt im CLuster eingebunden habe geht noch aber ein mount aus einer DMZ geht nicht und endet im timeout. D.h. der NFS server funktioniert prinzipiell.

1690552135805.png

hat sich etwas bei NFS geändert? oder Firewall. Irgendein Idee - wo schauen?

exports
/zfs-r10-40tb/zfs-r10-40tb-ds/nfs/nextcloud 192.168.1.111(rw,sync,no_subtree_check)
 
Last edited:
Jetzt mal eine neue VM aufgesetzt das gleiche Ergebnis. Es geht wenn ich ein Interface im LAN nehme. Verwende ich DMZ geht es nicht.
Ich habe aber auf meinem NFS server für beide interfaces die gleichen FW Regeln eingestellt.

Im DC
1690563456092.png

auf dem NFS server (einem PVE knoten):
1690563366855.png

kann jetzt reiner Zufall sein aber direkt vor dem Upgrade ging das so noch.

mach ich auf DC ebene die Firewall mal ganz aus kommt "portmap failed connection refused" auf dem client. Ich steh gerade auf dem Schlauch
 
Last edited:
müsste 2049 auf alle interfaces hören oder ist das so correct, sprich reicht es wemn portmapper und mountd auf 0.0.0.0 sitzen?

Code:
# rpcinfo -p
   program vers proto   port  service
    100000    4   tcp    111  portmapper
    100000    3   tcp    111  portmapper
    100000    2   tcp    111  portmapper
    100000    4   udp    111  portmapper
    100000    3   udp    111  portmapper
    100000    2   udp    111  portmapper
    100024    1   udp   4000  status
    100024    1   tcp   4000  status
    100005    1   udp  33333  mountd
    100005    1   tcp  33333  mountd
    100005    2   udp  33333  mountd
    100005    2   tcp  33333  mountd
    100005    3   udp  33333  mountd
    100005    3   tcp  33333  mountd
    100003    3   tcp   2049  nfs
    100003    4   tcp   2049  nfs
    100227    3   tcp   2049  nfs_acl
    100021    1   udp  40002  nlockmgr
    100021    3   udp  40002  nlockmgr
    100021    4   udp  40002  nlockmgr
    100021    1   tcp  40002  nlockmgr
    100021    3   tcp  40002  nlockmgr
    100021    4   tcp  40002  nlockmgr

# netstat -ln | grep 111
tcp        0      0 0.0.0.0:111             0.0.0.0:*               LISTEN
tcp6       0      0 :::111                  :::*                    LISTEN
udp        0      0 0.0.0.0:111             0.0.0.0:*
udp6       0      0 :::111                  :::*

# netstat -ln | grep 33333
tcp        0      0 0.0.0.0:33333           0.0.0.0:*               LISTEN
tcp6       0      0 :::33333                :::*                    LISTEN
udp        0      0 0.0.0.0:33333           0.0.0.0:*
udp6       0      0 :::33333                :::*

# netstat -ln | grep 2049
tcp        0      0 192.168.0.53:2049       0.0.0.0:*               LISTEN
 
0.0.0.0 heisst ja auf allen (ipv4) addressen..

der letzte output sieht allerdings verdaechtig aus.. hast du irgendwas spezielles in /etc/nfs.conf (oder /etc/nfs.conf.d/* ) konfiguriert? oder in /etc/default/nfs-common bzw /etc/default/nfs-kernel-server ?
 
Werde ich heute abend nochmals anschauen (bin gerade unterwegs) - aber eigentlich nicht, vor dem pve8 upgrade ging auch alles. Ich weiss hört Ihr öfters :)

Werde wenn ich das nicht hinbekomme, wohl einen LXC (ja tricky wegen den rechten) container als NFS server erstellen, so wenig wie möglich auf den PVE host selber, lerne ich gerade wieder schmerzhaft...
 
# cat /etc/nfs.conf
#
# This is a general configuration for the
# NFS daemons and tools
#
[general]
pipefs-directory=/run/rpc_pipefs
#
[nfsrahead]
# nfs=15000
# nfs4=16000
#
[exports]
# rootdir=/export
#
[exportfs]
# debug=0
#
[gssd]
# verbosity=0
# rpc-verbosity=0
# use-memcache=0
# use-machine-creds=1
# use-gss-proxy=0
# avoid-dns=1
# limit-to-legacy-enctypes=0
# context-timeout=0
# rpc-timeout=5
# keytab-file=/etc/krb5.keytab
# cred-cache-directory=
# preferred-realm=
# set-home=1
# upcall-timeout=30
# cancel-timed-out-upcalls=0
#
[lockd]
# port=0
# udp-port=0
#
[exportd]
# debug="all|auth|call|general|parse"
# manage-gids=n
# state-directory-path=/var/lib/nfs
# threads=1
# cache-use-ipaddr=n
# ttl=1800
[mountd]
# debug="all|auth|call|general|parse"
manage-gids=y
# descriptors=0
# port=0
# threads=1
# reverse-lookup=n
# state-directory-path=/var/lib/nfs
# ha-callout=
# cache-use-ipaddr=n
# ttl=1800
#
[nfsdcld]
# debug=0
# storagedir=/var/lib/nfs/nfsdcld
#
[nfsdcltrack]
# debug=0
# storagedir=/var/lib/nfs/nfsdcltrack
#
[nfsd]
# debug=0
# threads=8
# host=
# port=0
# grace-time=90
# lease-time=90
# udp=n
# tcp=y
# vers3=y
# vers4=y
# vers4.0=y
# vers4.1=y
# vers4.2=y
# rdma=n
# rdma-port=20049

[statd]
# debug=0
# port=0
# outgoing-port=0
# name=
# state-directory-path=/var/lib/nfs/statd
# ha-callout=
# no-notify=0
#
[sm-notify]
# debug=0
# force=0
# retry-time=900
# outgoing-port=
# outgoing-addr=
# lift-grace=y
#
[svcgssd]
# principal=

/etc/nfs.conf.d/* ist leer
/etc/default/nfs-common ist nichts gesetzt
/etc/default/nfs-kernel-server gibt es nicht

ich seh nichts verdächtiges
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!