Probleme mit Samba unter PVE

Discussion in 'Proxmox VE (Deutsch)' started by wit4r7, Nov 2, 2018.

  1. wit4r7

    wit4r7 New Member

    Joined:
    Sep 22, 2018
    Messages:
    20
    Likes Received:
    1
    Hallo,

    ich habe in meinem Proxmox eine VM mit Ubuntu 18.04 Server aufgesetzt und nutze diese VM als Fileserver für mein Netzwerk. Im Netzwerk sind Linux, Mac und Windowsgeräte, die darauf zugreifen sollen. Daher die Entscheidung zum Samba.

    Wenn ich nun versuche von einem Gerät eine Datei auf den Server zu kopieren habe ich anfangs super Schreibgeschwindikeiten (100 - 120MB/s) aber nach einer kleinen Weile (vgl. ~5 GB geschrieben) bricht die Geschwindigkeit auf 2-3 MB/s zusammen. Irgendwann verliert der Client auch kurzzeitig die Verbindung und der Transfer kann nicht abgeschlossen werden. Bei der Datei handelte es sich um eine ca. 50GB Videodatei.
    Gelesen wird dabei von einer M.2. SSD.

    Kurz zu meinem Setup:

    CPU: AMD EPYC 7281 2.7GHZ 16-CORE | Mainboard: Supermicro Motherboard H11SSL-NC | RAM: 4x 16GB Samsung DDR4-2666 regECC | HDDs: 4x 4000GB Seagate Exos 7E8 (Storage), 2x 2000GB Seagate Exos 7E8 (VMs) | SSDs: 2x 240GB Intel DC S4500 (System) & 1x 960GB Intel SSD S4510 Workstation VMs

    Die VM läuft auf den 4x4 TB im RAIDZ-2. Es handelt sich dabei um SAS HDDs, falls das von Bedeutung ist.
    Ich habe auch zwischenzeitlich noch eine Samsung 128GB 840 Pro als Cache mit in den Pool gegeben, aber das Ergebniss bleibt unverändert.

    Die VM hat eigentlich 8 GB RAM und 2 Cores. Aktuell habe ich Ihr 32 GB RAM sowie 4 Cores zugwiesen, allerdings auch ohne Verbesserung.

    Mein Netzwerk ist ein Gigabit Netzwerk und alle Geräte hängen am selben Switch. Der Server und der Windows PC sind auch QoS auf High.

    Hier noch die SMB Conf:
    Code:
    meister@fileserver:~$ cat /etc/samba/smb.conf
    #
    # Sample configuration file for the Samba suite for Debian GNU/Linux.
    #
    #
    # This is the main Samba configuration file. You should read the
    # smb.conf(5) manual page in order to understand the options listed
    # here. Samba has a huge number of configurable options most of which
    # are not shown in this example
    #
    # Some options that are often worth tuning have been included as
    # commented-out examples in this file.
    #  - When such options are commented with ";", the proposed setting
    #    differs from the default Samba behaviour
    #  - When commented with "#", the proposed setting is the default
    #    behaviour of Samba but the option is considered important
    #    enough to be mentioned here
    #
    # NOTE: Whenever you modify this file you should run the command
    # "testparm" to check that you have not made any basic syntactic
    # errors.
    
    #======================= Global Settings =======================
    
    [global]
    
    ## Browsing/Identification ###
    
    # Change this to the workgroup/NT-domain name your Samba server will part of
       workgroup = WORKGROUP
       dfree command = /usr/local/bin/dfree
    
    # server string is the equivalent of the NT Description field
            server string = %h server (Samba, Ubuntu)
    
    # Windows Internet Name Serving Support Section:
    # WINS Support - Tells the NMBD component of Samba to enable its WINS Server
    #   wins support = no
    
    # WINS Server - Tells the NMBD components of Samba to be a WINS Client
    # Note: Samba can be either a WINS Server, or a WINS Client, but NOT both
    #   wins server = w.x.y.z
    
    # This will prevent nmbd to search for NetBIOS names through DNS.
       dns proxy = no
    
    #### Networking ####
    
    # The specific set of interfaces / networks to bind to
    # This can be either the interface name or an IP address/netmask;
    # interface names are normally preferred
    ;   interfaces = 127.0.0.0/8 eth0
    
    # Only bind to the named interfaces and/or networks; you must use the
    # 'interfaces' option above to use this.
    # It is recommended that you enable this feature if your Samba machine is
    # not protected by a firewall or is a firewall itself.  However, this
    # option cannot handle dynamic or non-broadcast interfaces correctly.
    ;   bind interfaces only = yes
    
    client min protocol = SMB2
    client max protocol = SMB3
    
    #### Debugging/Accounting ####
    
    # This tells Samba to use a separate log file for each machine
    # that connects
       log file = /var/log/samba/log.%m
    
    # Cap the size of the individual log files (in KiB).
       max log size = 1000
    
    # If you want Samba to only log through syslog then set the following
    # parameter to 'yes'.
    #   syslog only = no
    
    # We want Samba to log a minimum amount of information to syslog. Everything
    # should go to /var/log/samba/log.{smbd,nmbd} instead. If you want to log
    # through syslog you should set the following parameter to something higher.
       syslog = 0
    
    # Do something sensible when Samba crashes: mail the admin a backtrace
       panic action = /usr/share/samba/panic-action %d
    
    
    ####### Authentication #######
    
    # Server role. Defines in which mode Samba will operate. Possible
    # values are "standalone server", "member server", "classic primary
    # domain controller", "classic backup domain controller", "active
    # directory domain controller".
    #
    # Most people will want "standalone sever" or "member server".
    # Running as "active directory domain controller" will require first
    # running "samba-tool domain provision" to wipe databases and create a
    # new domain.
       server role = standalone server
    
    # If you are using encrypted passwords, Samba will need to know what
    # password database type you are using.
       passdb backend = tdbsam
    
       obey pam restrictions = yes
    
    # This boolean parameter controls whether Samba attempts to sync the Unix
    # password with the SMB password when the encrypted SMB password in the
    # passdb is changed.
       unix password sync = yes
    
    # For Unix password sync to work on a Debian GNU/Linux system, the following
    # parameters must be set (thanks to Ian Kahan <<kahan@informatik.tu-muenchen.de> for
    # sending the correct chat script for the passwd program in Debian Sarge).
       passwd program = /usr/bin/passwd %u
       passwd chat = *Enter\snew\s*\spassword:* %n\n *Retype\snew\s*\spassword:* %n\n *password\supdated\ssuccessfully* .
    
    # This boolean controls whether PAM will be used for password changes
    # when requested by an SMB client instead of the program listed in
    # 'passwd program'. The default is 'no'.
       pam password change = yes
    
    # This option controls how unsuccessful authentication attempts are mapped
    # to anonymous connections
       map to guest = bad user
    
    ########## Domains ###########
    
    #
    # The following settings only takes effect if 'server role = primary
    # classic domain controller', 'server role = backup domain controller'
    # or 'domain logons' is set
    #
    
    # It specifies the location of the user's
    # profile directory from the client point of view) The following
    # required a [profiles] share to be setup on the samba server (see
    # below)
    ;   logon path = \\%N\profiles\%U
    # Another common choice is storing the profile in the user's home directory
    # (this is Samba's default)
    #   logon path = \\%N\%U\profile
    
    # The following setting only takes effect if 'domain logons' is set
    # It specifies the location of a user's home directory (from the client
    # point of view)
    ;   logon drive = H:
    #   logon home = \\%N\%U
    
    # The following setting only takes effect if 'domain logons' is set
    # It specifies the script to run during logon. The script must be stored
    # in the [netlogon] share
    # NOTE: Must be store in 'DOS' file format convention
    ;   logon script = logon.cmd
    
    # This allows Unix users to be created on the domain controller via the SAMR
    # RPC pipe.  The example command creates a user account with a disabled Unix
    # password; please adapt to your needs
    ; add user script = /usr/sbin/adduser --quiet --disabled-password --gecos "" %u
    
    # This allows machine accounts to be created on the domain controller via the
    # SAMR RPC pipe.
    # The following assumes a "machines" group exists on the system
    ; add machine script  = /usr/sbin/useradd -g machines -c "%u machine account" -d /var/lib/samba -s /bin/false %u
    
    # This allows Unix groups to be created on the domain controller via the SAMR
    # RPC pipe.
    ; add group script = /usr/sbin/addgroup --force-badname %g
    
    ############ Misc ############
    
    # Using the following line enables you to customise your configuration
    # on a per machine basis. The %m gets replaced with the netbios name
    # of the machine that is connecting
    ;   include = /home/samba/etc/smb.conf.%m
    
    # Some defaults for winbind (make sure you're not using the ranges
    # for something else.)
    ;   idmap uid = 10000-20000
    ;   idmap gid = 10000-20000
    ;   template shell = /bin/bash
    
    # Setup usershare options to enable non-root users to share folders
    # with the net usershare command.
    
    # Maximum number of usershare. 0 (default) means that usershare is disabled.
    ;   usershare max shares = 100
    
    # Allow users who've been granted usershare privileges to create
    # public shares, not just authenticated ones
       usershare allow guests = no
    
    #======================= Share Definitions =======================
    
    # Un-comment the following (and tweak the other settings below to suit)
    # to enable the default home directory shares. This will share each
    # user's home directory as \\server\username
    [homes]
       comment = Home Directories
       browseable = no
      valid users = %S
      writeable = yes
      create mode = 0600
      directory mode = 0700
    
    # By default, the home directories are exported read-only. Change the
    # next parameter to 'no' if you want to be able to write to them.
    ;   read only = yes
    
    # File creation mask is set to 0700 for security reasons. If you want to
    # create files with group=rw permissions, set next parameter to 0775.
    ;   create mask = 0700
    
    # Directory creation mask is set to 0700 for security reasons. If you want to
    # create dirs. with group=rw permissions, set next parameter to 0775.
    ;   directory mask = 0700
    
    # By default, \\server\username shares can be connected to by anyone
    # with access to the samba server.
    # Un-comment the following parameter to make sure that only "username"
    # can connect to \\server\username
    # This might need tweaking when using external authentication schemes
    ;   valid users = %S
    
    # Un-comment the following and create the netlogon directory for Domain Logons
    # (you need to configure Samba to act as a domain controller too.)
    ;[netlogon]
    ;   comment = Network Logon Service
    ;   path = /home/samba/netlogon
    ;   guest ok = yes
    ;   read only = yes
    
    # Un-comment the following and create the profiles directory to store
    # users profiles (see the "logon path" option above)
    # (you need to configure Samba to act as a domain controller too.)
    # The path below should be writable by all users so that their
    # profile directory may be created the first time they log on
    ;[homes]
    ;   comment = Users profiles
    ;   path = /home/samba/profiles
    ;   guest ok = no
    ;   browseable = no
    ;   create mask = 0600
    ;   directory mask = 0700
    
    [printers]
       comment = All Printers
       browseable = no
       path = /var/spool/samba
       printable = yes
       guest ok = no
       read only = yes
       create mask = 0700
    
    # Windows clients look for this share name as a source of downloadable
    # printer drivers
    [print$]
       comment = Printer Drivers
       path = /var/lib/samba/printers
       browseable = yes
       read only = yes
       guest ok = no
    # Uncomment to allow remote administration of Windows print drivers.
    # You may need to replace 'lpadmin' with the name of the group your
    # admin users are members of.
    # Please note that you also need to set appropriate Unix permissions
    # to the drivers directory for these users to have write rights in it
    ;   write list = root, @lpadmin
    
    
    
    
    #socket options = TCP_NODELAY SO_RCVBUF=65536 SO_SNDBUF=65536
    socket options = IPTOS_LOWDELAY SO_RCVBUF=131072 SO_SNDBUF=131072 TCP_NODELAY
    #min receivefile size = 2048
    
    
    use sendfile = true
    aio read size = 2048
    aio write size = 2048
    write cache size = 1024000
    read raw = yes
    write raw = yes
    getwd cache = yes
    oplocks = yes
    max xmit = 32768
    dead time = 15
    large readwrite = yes
    
    
    
    
    [Austausch]
        comment = Samba on PVE
        path = /home/meister/Austausch
        guest ok = no
        read only = no
        browsable = yes
        create mask = 0664
        directory mask = 0775
        force group = sambashare
    
    [Musik]
        comment = Samba on PVE
        path = /home/meister/music
        guest ok = no
        read only = no
        browsable = yes
        create mask = 0664
        directory mask = 0775
        force group = sambashare
    
    [Photos]
        comment = Samba on PVE
        path = /home/meister/photos
        guest ok = no
        read only = no
        browsable = yes
        create mask = 0664
        directory mask = 0775
        force group = sambashare
    
    [Videos]
        comment = Samba on PVE
        path = /home/meister/videos
        guest ok = no
        read only = no
        browsable = yes
        create mask = 0664
        directory mask = 0775
        force group = sambashare
    
    
    [FTP]
        comment = Samba on PVE
        path = /home/meister/FTP
        guest ok = no
        read only = no
        browsable = yes
        create mask = 0664
        directory mask = 0775
        force group = sambashare
    
    
    Code:
    root@pve:~# pveversion -v
    proxmox-ve: 5.2-2 (running kernel: 4.15.18-7-pve)
    pve-manager: 5.2-9 (running version: 5.2-9/4b30e8f9)
    pve-kernel-4.15: 5.2-10
    pve-kernel-4.15.18-7-pve: 4.15.18-27
    pve-kernel-4.15.17-1-pve: 4.15.17-9
    corosync: 2.4.2-pve5
    criu: 2.11.1-1~bpo90
    glusterfs-client: 3.8.8-1
    ksm-control-daemon: 1.2-2
    libjs-extjs: 6.0.1-2
    libpve-access-control: 5.0-8
    libpve-apiclient-perl: 2.0-5
    libpve-common-perl: 5.0-40
    libpve-guest-common-perl: 2.0-18
    libpve-http-server-perl: 2.0-11
    libpve-storage-perl: 5.0-30
    libqb0: 1.0.1-1
    lvm2: 2.02.168-pve6
    lxc-pve: 3.0.2+pve1-2
    lxcfs: 3.0.2-2
    novnc-pve: 1.0.0-2
    proxmox-widget-toolkit: 1.0-20
    pve-cluster: 5.0-30
    pve-container: 2.0-28
    pve-docs: 5.2-8
    pve-firewall: 3.0-14
    pve-firmware: 2.0-5
    pve-ha-manager: 2.0-5
    pve-i18n: 1.0-6
    pve-libspice-server1: 0.12.8-3
    pve-qemu-kvm: 2.11.2-1
    pve-xtermjs: 1.0-5
    qemu-server: 5.0-36
    smartmontools: 6.5+svn4324-1
    spiceterm: 3.0-5
    vncterm: 1.5-3
    zfsutils-linux: 0.7.11-pve1~bpo1
    
    Vielen Dank im Voraus für eure Ideen und Antworten.

    wit4r7
     
  2. rholighaus

    rholighaus New Member
    Proxmox VE Subscriber

    Joined:
    Dec 15, 2016
    Messages:
    28
    Likes Received:
    2
    Hi wit4r7,

    Warum läuft Samba bei Dir in einer VM?

    Ich habe bei mir Samba als LXC Ubuntu 18.04.1 LTS Container laufen, auf einem ZFS Fileset, das auf SSDs liegt.
    Keinerlei Performance-Probleme...

    Gruß
    Ralf.
     
  3. fireon

    fireon Well-Known Member
    Proxmox VE Subscriber

    Joined:
    Oct 25, 2010
    Messages:
    2,678
    Likes Received:
    144
    Ob das ganze nun in einem LXC oder in einer KVM läuft sollte nach meinen Erfahrungen völlig egal sein. Und ja ich bin auch ein großer Freund von LXC. Trotzdem ist das Verhalten der VM nicht normal. Hab einige Sambaserver unter 18.04 als KVM und LXC am laufen, auch auf ZFS. Gehen ab wie die Hölle. Steht meist bei 110MB/s an. Nur verwende ich auch kein RaidZ2. Das mit nur 4 Platten ist schon ein wenig heftig.

    Egal. Um das mal aus zu schließen erstelle doch bitte mal eine NFS Freigabe auf deiner VM und kopiere da mal so 10-15GB drüber. Dann sehen wir weiter.

    Bei der Kopiergeschwindigkeit kommt es natürlich auch sehr stark auf die Art der Daten an. Du sagst am Anfang gehts schnell, später langsam. Event. hattets du am Anfang ne Große Datei, dann 1000ente ganz kleine, das wird dann sehr langsam. Sehr Geschwindigkeitabhängig ist auch die Protokollversion wie du am Client mountest. Default ist blöderweise 1.0, das ist noch NT Standard, das geht auch bei mir nicht gut. Optimal ist 3.0. Das wäre z.B. eine Mountzeile... geht natürlich auch grafisch ;)

    Code:
    //supertux.local/SSD-steamlinux-maxi /mnt/SMB-supertux.local/SSD-steamlinux cifs credentials=/root/.smbcredentials-usermaxi,auto,vers=3.0,uid=13221,gid=32521,exec   0 0
     
    Stop hovering to collapse... Click to collapse... Hover to expand... Click to expand...
  4. wit4r7

    wit4r7 New Member

    Joined:
    Sep 22, 2018
    Messages:
    20
    Likes Received:
    1
    Hallo,

    vielen Dank. NFS werde ich bei Gelegenheit mal ausprobieren. Ja mit dem RaidZ2 habe ich jetzt schon mehrfach gelesen und bin am überlegen, dafür einfach die HDDs als Mirror zu nutzen.

    Bei der Datei handelt es sich um eine Datei, nicht viele kleine.
     
  5. fireon

    fireon Well-Known Member
    Proxmox VE Subscriber

    Joined:
    Oct 25, 2010
    Messages:
    2,678
    Likes Received:
    144
    Dann sollte es immer mit Vollgas gehen. Wie sieht es denn mit i/o delay aus beim Kopieren.
     
    Stop hovering to collapse... Click to collapse... Hover to expand... Click to expand...
  6. wit4r7

    wit4r7 New Member

    Joined:
    Sep 22, 2018
    Messages:
    20
    Likes Received:
    1
    I/O Delay kann ich wie auslesen?

    Hab folgendes im Netz gefunden:
    Code:
    root@pve:~# pveperf
    CPU BOGOMIPS:      134385.92
    REGEX/SECOND:      1808826
    HD SIZE:           206.04 GB (rpool/ROOT/pve-1)
    FSYNCS/SECOND:     4129.21
    DNS EXT:           47.48 ms
    DNS INT:           0.78 ms (fritz.box)
    
    root@pve:~# pveperf /storage/
    CPU BOGOMIPS:      134385.92
    REGEX/SECOND:      1769933
    HD SIZE:           4581.23 GB (storage)
    FSYNCS/SECOND:     103.76
    DNS EXT:           46.08 ms
    DNS INT:           0.77 ms (fritz.box)
    
    Ansonsten noch Folgendes:
    Code:
    root@pve:~# zpool iostat -v storage
                                  capacity     operations     bandwidth
    pool                        alloc   free   read  write   read  write
    --------------------------  -----  -----  -----  -----  -----  -----
    storage                      742G  13.8T     51     82   444K  3.19M
      raidz2                     742G  13.8T     51     82   444K  3.19M
        wwn-0x5000c500a6a1137f      -      -     12     20   110K   818K
        wwn-0x5000c500a6a0e61f      -      -     12     20   110K   817K
        wwn-0x5000c500a6a15b33      -      -     12     20   112K   816K
        wwn-0x5000c500a6d21aef      -      -     12     20   112K   817K
    cache                           -      -      -      -      -      -
      wwn-0x50025385a008a766    2.24G   117G      0      4    652   430K
    --------------------------  -----  -----  -----  -----  -----  -----
    
     
  7. fireon

    fireon Well-Known Member
    Proxmox VE Subscriber

    Joined:
    Oct 25, 2010
    Messages:
    2,678
    Likes Received:
    144
    Während dem kopieren einfach im Webinterface beim Host direkt unter CPUauslastung i/o delay (blaue Grafik) oder auf der CMD mit "top" mitschauen, dort ganz oben "w/a".

    Pveperf auf der Storage ist nicht brauchbar. Ein normaler/guter Wert wäre ca. ab 3000+ bei
    FSYNCS/SECOND
     
    Stop hovering to collapse... Click to collapse... Hover to expand... Click to expand...
  8. wit4r7

    wit4r7 New Member

    Joined:
    Sep 22, 2018
    Messages:
    20
    Likes Received:
    1
    Also PVE habe ich einen IO-Delay von 0.17 - 0.2 und plötzlch geht er auf > 20 hoch. Dann auch teilweise auf > 35.

    Was würdet Ihr empfehlen, um das ganze in Griff zu bekommen?
     
  9. fireon

    fireon Well-Known Member
    Proxmox VE Subscriber

    Joined:
    Oct 25, 2010
    Messages:
    2,678
    Likes Received:
    144
    Hmm, ich verwende ja ausschließlich Raid10. Außer bei SSDraids, dann kommt es schon mal vor das es RaidZ10 wird, also Raid50. Hab hier bei mir z.B. 8x2TB RedPro im ZFS Raid10, da geht ein permanenter Durchsatz von ca. 500 bis 700MB/s. Bei den 4SSD's hab ich hier auch ein Raid10 gemacht. Hier gehen dann schon um die 1000MB/s.

    Das Delay selbst würde mich nicht wunder, geht bei mir auch rauf. Aber zur Relation der Plattenzahl und dem Raidlevel inkl. dem FSYNCS/SECOND macht es sich eben negativ bemerkbar.

    Bei einer großen Datei würde dir der SSDcache ja auch nicht helfen. Hast es schon mal zum Test mit NFS und ner großen Datei versucht?
     
    Stop hovering to collapse... Click to collapse... Hover to expand... Click to expand...
  10. wit4r7

    wit4r7 New Member

    Joined:
    Sep 22, 2018
    Messages:
    20
    Likes Received:
    1
    Hey, danke für die Antwort.
    Ne NFS habe ich zeitlich noch nicht geschafft.

    Werde aber wahrscheinlich die 4x4 TB auch als Raid 10 einrichten. Mal schauen, ob das Problem dann noch immer besteht.

    VG
     
  11. wit4r7

    wit4r7 New Member

    Joined:
    Sep 22, 2018
    Messages:
    20
    Likes Received:
    1
    Hallo,

    ich habe jetzt das Raid Level auf Mirror (bzw. RAID 10) umgestellt. Allerdings sind die FSYNCS/SECOND noch immer sehr niedrig.
    Hab auch testhalber das ganze mal ohne den Cache angelegt - unverändert

    Code:
    root@pve:~# pveperf /storage/
    CPU BOGOMIPS:      134389.76
    REGEX/SECOND:      1774189
    HD SIZE:           7192.00 GB (storage)
    FSYNCS/SECOND:     110.87
    DNS EXT:           47.34 ms
    DNS INT:           0.77 ms (fritz.box)
    
    
    root@pve:~# zpool iostat -v storage
                                  capacity     operations     bandwidth
    pool                        alloc   free   read  write   read  write
    --------------------------  -----  -----  -----  -----  -----  -----
    storage                     2.27M  7.25T      0      4  4.27K  36.3K
      mirror                    1.09M  3.62T      0      2  2.14K  17.2K
        wwn-0x5000c500a6a1137f      -      -      0      1  1.07K  8.60K
        wwn-0x5000c500a6a0e61f      -      -      0      1  1.07K  8.60K
      mirror                    1.18M  3.62T      0      2  2.14K  19.1K
        wwn-0x5000c500a6a15b33      -      -      0      1  1.07K  9.57K
        wwn-0x5000c500a6d21aef      -      -      0      1  1.07K  9.57K
    cache                           -      -      -      -      -      -
      wwn-0x50025385a008a766      44K   119G      0      0    315    444
    --------------------------  -----  -----  -----  -----  -----  -----
    
    
    root@pve:~# zpool destroy storage
    root@pve:~# zpool create -f storage mirror  wwn-0x5000c500a6a1137f wwn-0x5000c500a6a0e61f mirror  wwn-0x5000c500a6a15b33 wwn-0x5000c500a6d21aef
    
    root@pve:~# zpool iostat -v storage
                                  capacity     operations     bandwidth
    pool                        alloc   free   read  write   read  write
    --------------------------  -----  -----  -----  -----  -----  -----
    storage                      456K  7.25T     10    156   683K  2.92M
      mirror                     168K  3.62T      5     67   341K  1.35M
        wwn-0x5000c500a6a1137f      -      -      2     34   171K   690K
        wwn-0x5000c500a6a0e61f      -      -      2     33   171K   690K
      mirror                     288K  3.62T      5     88   341K  1.57M
        wwn-0x5000c500a6a15b33      -      -      2     43   171K   803K
        wwn-0x5000c500a6d21aef      -      -      2     45   171K   803K
    --------------------------  -----  -----  -----  -----  -----  -----
    
    
    root@pve:~# pveperf /storage/
    CPU BOGOMIPS:      134389.76
    REGEX/SECOND:      1792484
    HD SIZE:           7192.00 GB (storage)
    FSYNCS/SECOND:     115.45
    DNS EXT:           49.81 ms
    DNS INT:           0.77 ms (fritz.box)
    
    root@pve:~# pveperf /vm-storage/
    CPU BOGOMIPS:      134389.76
    REGEX/SECOND:      1806661
    HD SIZE:           1324.33 GB (vm-storage)
    FSYNCS/SECOND:     114.33
    DNS EXT:           47.95 ms
    DNS INT:           0.86 ms (fritz.box)
    
    
    root@pve:~# pveperf /workstation/
    CPU BOGOMIPS:      134389.76
    REGEX/SECOND:      1698040
    HD SIZE:           447.72 GB (workstation)
    FSYNCS/SECOND:     5205.82
    DNS EXT:           47.96 ms
    DNS INT:           0.77 ms (fritz.box)
    
    root@pve:~# pveperf
    CPU BOGOMIPS:      134389.76
    REGEX/SECOND:      1820589
    HD SIZE:           206.04 GB (rpool/ROOT/pve-1)
    FSYNCS/SECOND:     4040.72
    DNS EXT:           49.55 ms
    DNS INT:           0.79 ms (fritz.box)
    
    Das PVE sowie workstation laufen auf Intel SSDs. Die vm-storage sowie storage sind Seagate EXOS 7E8 Platten, welche über einen Onboard LSI 3008 angeschlossen sind.

    Ich habe gerade noch etwas recherchiert und habe zu Testzwecken den Sync auf disabled gesetzt. Dann sieht das ganze doch schon etwas anders aus:
    Code:
    root@pve:~# zfs set sync=disabled storage
    root@pve:~# pveperf /storage/
    CPU BOGOMIPS:      134389.76
    REGEX/SECOND:      1819851
    HD SIZE:           7192.00 GB (storage)
    FSYNCS/SECOND:     23699.57
    DNS EXT:           49.71 ms
    DNS INT:           0.77 ms (fritz.box)
    root@pve:~# 
    Ich werde mich in die Richtung weiter belesen, bin aber - gerade als PVE Neuling - für weitere Tipps dankbar.

    vg wit4r7

    PS: Ich weiß sync=disabeld ist nicht gut, allerdings hängt der Server an einer USV und ist auch nur im private Umfeld im Einsatz.
     
    fireon likes this.
  12. W.Schlegel

    W.Schlegel New Member

    Joined:
    Thursday
    Messages:
    1
    Likes Received:
    0
    Moin Zusammen,

    ich habe mich gerade hier angemeldet, weil ich deine (wit4r7) Hardwarekonfiguration (CPU: AMD EPYC 7281 2.7GHZ 16-CORE | Mainboard: Supermicro Motherboard H11SSL-NC | RAM: 4x 16GB Samsung DDR4-2666 regECC ) gefunden habe, denn ich habe mir genau die gleiche Konfiguration überlegt und bin sehr interessiert daran, ob sie läuft.

    Mein Händler hat mir davon abgeraten, weil Xeon viel besser ist und das auch jeder nimmt und sowieso nix von (Debian 9) Proxmox auf der Supermicro Website steht und das deswegen auch nicht richtig laufen wird. Da ich dadurch stark verunsichert bin, lese ich alles zum Thema Proxmox VE und Epyc.

    Deshalb die Frage: Ist der Broadcom (LSI) 3008 (SAS Raid-Controller) umgeflasht in den IT-Mode?

    Wenn nicht, ist das vielleicht der Flaschenhals, da der Controller sein eigenes Ding machen will und ZFS damit nicht klar kommt. Mit einer 50 GB Videodatei sollte eine Standard-Konfiguration von SAMBA eigentlich klar kommen, ganz ohne Tricks.

    Mit freundlichen Grüßen

    Wayne Schlegel
     
  13. wit4r7

    wit4r7 New Member

    Joined:
    Sep 22, 2018
    Messages:
    20
    Likes Received:
    1
    Nein der LSI 3008 ist nicht geflashed. Ist ein guter Hinweis. Aber was mich halt am meisten wundert, dass die Leistung halt eben zusammenbricht und nicht von Anfang an niedrig ist.
     
  1. This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
    By continuing to use this site, you are consenting to our use of cookies.
    Dismiss Notice