Probleme mit Samba unter PVE

wit4r7

Member
Sep 22, 2018
31
1
8
32
Hallo,

ich habe in meinem Proxmox eine VM mit Ubuntu 18.04 Server aufgesetzt und nutze diese VM als Fileserver für mein Netzwerk. Im Netzwerk sind Linux, Mac und Windowsgeräte, die darauf zugreifen sollen. Daher die Entscheidung zum Samba.

Wenn ich nun versuche von einem Gerät eine Datei auf den Server zu kopieren habe ich anfangs super Schreibgeschwindikeiten (100 - 120MB/s) aber nach einer kleinen Weile (vgl. ~5 GB geschrieben) bricht die Geschwindigkeit auf 2-3 MB/s zusammen. Irgendwann verliert der Client auch kurzzeitig die Verbindung und der Transfer kann nicht abgeschlossen werden. Bei der Datei handelte es sich um eine ca. 50GB Videodatei.
Gelesen wird dabei von einer M.2. SSD.

Kurz zu meinem Setup:

CPU: AMD EPYC 7281 2.7GHZ 16-CORE | Mainboard: Supermicro Motherboard H11SSL-NC | RAM: 4x 16GB Samsung DDR4-2666 regECC | HDDs: 4x 4000GB Seagate Exos 7E8 (Storage), 2x 2000GB Seagate Exos 7E8 (VMs) | SSDs: 2x 240GB Intel DC S4500 (System) & 1x 960GB Intel SSD S4510 Workstation VMs

Die VM läuft auf den 4x4 TB im RAIDZ-2. Es handelt sich dabei um SAS HDDs, falls das von Bedeutung ist.
Ich habe auch zwischenzeitlich noch eine Samsung 128GB 840 Pro als Cache mit in den Pool gegeben, aber das Ergebniss bleibt unverändert.

Die VM hat eigentlich 8 GB RAM und 2 Cores. Aktuell habe ich Ihr 32 GB RAM sowie 4 Cores zugwiesen, allerdings auch ohne Verbesserung.

Mein Netzwerk ist ein Gigabit Netzwerk und alle Geräte hängen am selben Switch. Der Server und der Windows PC sind auch QoS auf High.

Hier noch die SMB Conf:
Code:
meister@fileserver:~$ cat /etc/samba/smb.conf
#
# Sample configuration file for the Samba suite for Debian GNU/Linux.
#
#
# This is the main Samba configuration file. You should read the
# smb.conf(5) manual page in order to understand the options listed
# here. Samba has a huge number of configurable options most of which
# are not shown in this example
#
# Some options that are often worth tuning have been included as
# commented-out examples in this file.
#  - When such options are commented with ";", the proposed setting
#    differs from the default Samba behaviour
#  - When commented with "#", the proposed setting is the default
#    behaviour of Samba but the option is considered important
#    enough to be mentioned here
#
# NOTE: Whenever you modify this file you should run the command
# "testparm" to check that you have not made any basic syntactic
# errors.

#======================= Global Settings =======================

[global]

## Browsing/Identification ###

# Change this to the workgroup/NT-domain name your Samba server will part of
   workgroup = WORKGROUP
   dfree command = /usr/local/bin/dfree

# server string is the equivalent of the NT Description field
        server string = %h server (Samba, Ubuntu)

# Windows Internet Name Serving Support Section:
# WINS Support - Tells the NMBD component of Samba to enable its WINS Server
#   wins support = no

# WINS Server - Tells the NMBD components of Samba to be a WINS Client
# Note: Samba can be either a WINS Server, or a WINS Client, but NOT both
#   wins server = w.x.y.z

# This will prevent nmbd to search for NetBIOS names through DNS.
   dns proxy = no

#### Networking ####

# The specific set of interfaces / networks to bind to
# This can be either the interface name or an IP address/netmask;
# interface names are normally preferred
;   interfaces = 127.0.0.0/8 eth0

# Only bind to the named interfaces and/or networks; you must use the
# 'interfaces' option above to use this.
# It is recommended that you enable this feature if your Samba machine is
# not protected by a firewall or is a firewall itself.  However, this
# option cannot handle dynamic or non-broadcast interfaces correctly.
;   bind interfaces only = yes

client min protocol = SMB2
client max protocol = SMB3

#### Debugging/Accounting ####

# This tells Samba to use a separate log file for each machine
# that connects
   log file = /var/log/samba/log.%m

# Cap the size of the individual log files (in KiB).
   max log size = 1000

# If you want Samba to only log through syslog then set the following
# parameter to 'yes'.
#   syslog only = no

# We want Samba to log a minimum amount of information to syslog. Everything
# should go to /var/log/samba/log.{smbd,nmbd} instead. If you want to log
# through syslog you should set the following parameter to something higher.
   syslog = 0

# Do something sensible when Samba crashes: mail the admin a backtrace
   panic action = /usr/share/samba/panic-action %d


####### Authentication #######

# Server role. Defines in which mode Samba will operate. Possible
# values are "standalone server", "member server", "classic primary
# domain controller", "classic backup domain controller", "active
# directory domain controller".
#
# Most people will want "standalone sever" or "member server".
# Running as "active directory domain controller" will require first
# running "samba-tool domain provision" to wipe databases and create a
# new domain.
   server role = standalone server

# If you are using encrypted passwords, Samba will need to know what
# password database type you are using.
   passdb backend = tdbsam

   obey pam restrictions = yes

# This boolean parameter controls whether Samba attempts to sync the Unix
# password with the SMB password when the encrypted SMB password in the
# passdb is changed.
   unix password sync = yes

# For Unix password sync to work on a Debian GNU/Linux system, the following
# parameters must be set (thanks to Ian Kahan <<kahan@informatik.tu-muenchen.de> for
# sending the correct chat script for the passwd program in Debian Sarge).
   passwd program = /usr/bin/passwd %u
   passwd chat = *Enter\snew\s*\spassword:* %n\n *Retype\snew\s*\spassword:* %n\n *password\supdated\ssuccessfully* .

# This boolean controls whether PAM will be used for password changes
# when requested by an SMB client instead of the program listed in
# 'passwd program'. The default is 'no'.
   pam password change = yes

# This option controls how unsuccessful authentication attempts are mapped
# to anonymous connections
   map to guest = bad user

########## Domains ###########

#
# The following settings only takes effect if 'server role = primary
# classic domain controller', 'server role = backup domain controller'
# or 'domain logons' is set
#

# It specifies the location of the user's
# profile directory from the client point of view) The following
# required a [profiles] share to be setup on the samba server (see
# below)
;   logon path = \\%N\profiles\%U
# Another common choice is storing the profile in the user's home directory
# (this is Samba's default)
#   logon path = \\%N\%U\profile

# The following setting only takes effect if 'domain logons' is set
# It specifies the location of a user's home directory (from the client
# point of view)
;   logon drive = H:
#   logon home = \\%N\%U

# The following setting only takes effect if 'domain logons' is set
# It specifies the script to run during logon. The script must be stored
# in the [netlogon] share
# NOTE: Must be store in 'DOS' file format convention
;   logon script = logon.cmd

# This allows Unix users to be created on the domain controller via the SAMR
# RPC pipe.  The example command creates a user account with a disabled Unix
# password; please adapt to your needs
; add user script = /usr/sbin/adduser --quiet --disabled-password --gecos "" %u

# This allows machine accounts to be created on the domain controller via the
# SAMR RPC pipe.
# The following assumes a "machines" group exists on the system
; add machine script  = /usr/sbin/useradd -g machines -c "%u machine account" -d /var/lib/samba -s /bin/false %u

# This allows Unix groups to be created on the domain controller via the SAMR
# RPC pipe.
; add group script = /usr/sbin/addgroup --force-badname %g

############ Misc ############

# Using the following line enables you to customise your configuration
# on a per machine basis. The %m gets replaced with the netbios name
# of the machine that is connecting
;   include = /home/samba/etc/smb.conf.%m

# Some defaults for winbind (make sure you're not using the ranges
# for something else.)
;   idmap uid = 10000-20000
;   idmap gid = 10000-20000
;   template shell = /bin/bash

# Setup usershare options to enable non-root users to share folders
# with the net usershare command.

# Maximum number of usershare. 0 (default) means that usershare is disabled.
;   usershare max shares = 100

# Allow users who've been granted usershare privileges to create
# public shares, not just authenticated ones
   usershare allow guests = no

#======================= Share Definitions =======================

# Un-comment the following (and tweak the other settings below to suit)
# to enable the default home directory shares. This will share each
# user's home directory as \\server\username
[homes]
   comment = Home Directories
   browseable = no
  valid users = %S
  writeable = yes
  create mode = 0600
  directory mode = 0700

# By default, the home directories are exported read-only. Change the
# next parameter to 'no' if you want to be able to write to them.
;   read only = yes

# File creation mask is set to 0700 for security reasons. If you want to
# create files with group=rw permissions, set next parameter to 0775.
;   create mask = 0700

# Directory creation mask is set to 0700 for security reasons. If you want to
# create dirs. with group=rw permissions, set next parameter to 0775.
;   directory mask = 0700

# By default, \\server\username shares can be connected to by anyone
# with access to the samba server.
# Un-comment the following parameter to make sure that only "username"
# can connect to \\server\username
# This might need tweaking when using external authentication schemes
;   valid users = %S

# Un-comment the following and create the netlogon directory for Domain Logons
# (you need to configure Samba to act as a domain controller too.)
;[netlogon]
;   comment = Network Logon Service
;   path = /home/samba/netlogon
;   guest ok = yes
;   read only = yes

# Un-comment the following and create the profiles directory to store
# users profiles (see the "logon path" option above)
# (you need to configure Samba to act as a domain controller too.)
# The path below should be writable by all users so that their
# profile directory may be created the first time they log on
;[homes]
;   comment = Users profiles
;   path = /home/samba/profiles
;   guest ok = no
;   browseable = no
;   create mask = 0600
;   directory mask = 0700

[printers]
   comment = All Printers
   browseable = no
   path = /var/spool/samba
   printable = yes
   guest ok = no
   read only = yes
   create mask = 0700

# Windows clients look for this share name as a source of downloadable
# printer drivers
[print$]
   comment = Printer Drivers
   path = /var/lib/samba/printers
   browseable = yes
   read only = yes
   guest ok = no
# Uncomment to allow remote administration of Windows print drivers.
# You may need to replace 'lpadmin' with the name of the group your
# admin users are members of.
# Please note that you also need to set appropriate Unix permissions
# to the drivers directory for these users to have write rights in it
;   write list = root, @lpadmin




#socket options = TCP_NODELAY SO_RCVBUF=65536 SO_SNDBUF=65536
socket options = IPTOS_LOWDELAY SO_RCVBUF=131072 SO_SNDBUF=131072 TCP_NODELAY
#min receivefile size = 2048


use sendfile = true
aio read size = 2048
aio write size = 2048
write cache size = 1024000
read raw = yes
write raw = yes
getwd cache = yes
oplocks = yes
max xmit = 32768
dead time = 15
large readwrite = yes




[Austausch]
    comment = Samba on PVE
    path = /home/meister/Austausch
    guest ok = no
    read only = no
    browsable = yes
    create mask = 0664
    directory mask = 0775
    force group = sambashare

[Musik]
    comment = Samba on PVE
    path = /home/meister/music
    guest ok = no
    read only = no
    browsable = yes
    create mask = 0664
    directory mask = 0775
    force group = sambashare

[Photos]
    comment = Samba on PVE
    path = /home/meister/photos
    guest ok = no
    read only = no
    browsable = yes
    create mask = 0664
    directory mask = 0775
    force group = sambashare

[Videos]
    comment = Samba on PVE
    path = /home/meister/videos
    guest ok = no
    read only = no
    browsable = yes
    create mask = 0664
    directory mask = 0775
    force group = sambashare


[FTP]
    comment = Samba on PVE
    path = /home/meister/FTP
    guest ok = no
    read only = no
    browsable = yes
    create mask = 0664
    directory mask = 0775
    force group = sambashare

Code:
root@pve:~# pveversion -v
proxmox-ve: 5.2-2 (running kernel: 4.15.18-7-pve)
pve-manager: 5.2-9 (running version: 5.2-9/4b30e8f9)
pve-kernel-4.15: 5.2-10
pve-kernel-4.15.18-7-pve: 4.15.18-27
pve-kernel-4.15.17-1-pve: 4.15.17-9
corosync: 2.4.2-pve5
criu: 2.11.1-1~bpo90
glusterfs-client: 3.8.8-1
ksm-control-daemon: 1.2-2
libjs-extjs: 6.0.1-2
libpve-access-control: 5.0-8
libpve-apiclient-perl: 2.0-5
libpve-common-perl: 5.0-40
libpve-guest-common-perl: 2.0-18
libpve-http-server-perl: 2.0-11
libpve-storage-perl: 5.0-30
libqb0: 1.0.1-1
lvm2: 2.02.168-pve6
lxc-pve: 3.0.2+pve1-2
lxcfs: 3.0.2-2
novnc-pve: 1.0.0-2
proxmox-widget-toolkit: 1.0-20
pve-cluster: 5.0-30
pve-container: 2.0-28
pve-docs: 5.2-8
pve-firewall: 3.0-14
pve-firmware: 2.0-5
pve-ha-manager: 2.0-5
pve-i18n: 1.0-6
pve-libspice-server1: 0.12.8-3
pve-qemu-kvm: 2.11.2-1
pve-xtermjs: 1.0-5
qemu-server: 5.0-36
smartmontools: 6.5+svn4324-1
spiceterm: 3.0-5
vncterm: 1.5-3
zfsutils-linux: 0.7.11-pve1~bpo1

Vielen Dank im Voraus für eure Ideen und Antworten.

wit4r7
 
Hi wit4r7,

Warum läuft Samba bei Dir in einer VM?

Ich habe bei mir Samba als LXC Ubuntu 18.04.1 LTS Container laufen, auf einem ZFS Fileset, das auf SSDs liegt.
Keinerlei Performance-Probleme...

Gruß
Ralf.
 
Ob das ganze nun in einem LXC oder in einer KVM läuft sollte nach meinen Erfahrungen völlig egal sein. Und ja ich bin auch ein großer Freund von LXC. Trotzdem ist das Verhalten der VM nicht normal. Hab einige Sambaserver unter 18.04 als KVM und LXC am laufen, auch auf ZFS. Gehen ab wie die Hölle. Steht meist bei 110MB/s an. Nur verwende ich auch kein RaidZ2. Das mit nur 4 Platten ist schon ein wenig heftig.

Egal. Um das mal aus zu schließen erstelle doch bitte mal eine NFS Freigabe auf deiner VM und kopiere da mal so 10-15GB drüber. Dann sehen wir weiter.

Bei der Kopiergeschwindigkeit kommt es natürlich auch sehr stark auf die Art der Daten an. Du sagst am Anfang gehts schnell, später langsam. Event. hattets du am Anfang ne Große Datei, dann 1000ente ganz kleine, das wird dann sehr langsam. Sehr Geschwindigkeitabhängig ist auch die Protokollversion wie du am Client mountest. Default ist blöderweise 1.0, das ist noch NT Standard, das geht auch bei mir nicht gut. Optimal ist 3.0. Das wäre z.B. eine Mountzeile... geht natürlich auch grafisch ;)

Code:
//supertux.local/SSD-steamlinux-maxi /mnt/SMB-supertux.local/SSD-steamlinux cifs credentials=/root/.smbcredentials-usermaxi,auto,vers=3.0,uid=13221,gid=32521,exec   0 0
 
Hallo,

vielen Dank. NFS werde ich bei Gelegenheit mal ausprobieren. Ja mit dem RaidZ2 habe ich jetzt schon mehrfach gelesen und bin am überlegen, dafür einfach die HDDs als Mirror zu nutzen.

Bei der Datei handelt es sich um eine Datei, nicht viele kleine.
 
I/O Delay kann ich wie auslesen?

Hab folgendes im Netz gefunden:
Code:
root@pve:~# pveperf
CPU BOGOMIPS:      134385.92
REGEX/SECOND:      1808826
HD SIZE:           206.04 GB (rpool/ROOT/pve-1)
FSYNCS/SECOND:     4129.21
DNS EXT:           47.48 ms
DNS INT:           0.78 ms (fritz.box)

root@pve:~# pveperf /storage/
CPU BOGOMIPS:      134385.92
REGEX/SECOND:      1769933
HD SIZE:           4581.23 GB (storage)
FSYNCS/SECOND:     103.76
DNS EXT:           46.08 ms
DNS INT:           0.77 ms (fritz.box)

Ansonsten noch Folgendes:
Code:
root@pve:~# zpool iostat -v storage
                              capacity     operations     bandwidth
pool                        alloc   free   read  write   read  write
--------------------------  -----  -----  -----  -----  -----  -----
storage                      742G  13.8T     51     82   444K  3.19M
  raidz2                     742G  13.8T     51     82   444K  3.19M
    wwn-0x5000c500a6a1137f      -      -     12     20   110K   818K
    wwn-0x5000c500a6a0e61f      -      -     12     20   110K   817K
    wwn-0x5000c500a6a15b33      -      -     12     20   112K   816K
    wwn-0x5000c500a6d21aef      -      -     12     20   112K   817K
cache                           -      -      -      -      -      -
  wwn-0x50025385a008a766    2.24G   117G      0      4    652   430K
--------------------------  -----  -----  -----  -----  -----  -----
 
Während dem kopieren einfach im Webinterface beim Host direkt unter CPUauslastung i/o delay (blaue Grafik) oder auf der CMD mit "top" mitschauen, dort ganz oben "w/a".

Pveperf auf der Storage ist nicht brauchbar. Ein normaler/guter Wert wäre ca. ab 3000+ bei
FSYNCS/SECOND
 
Also PVE habe ich einen IO-Delay von 0.17 - 0.2 und plötzlch geht er auf > 20 hoch. Dann auch teilweise auf > 35.

Was würdet Ihr empfehlen, um das ganze in Griff zu bekommen?
 
Hmm, ich verwende ja ausschließlich Raid10. Außer bei SSDraids, dann kommt es schon mal vor das es RaidZ10 wird, also Raid50. Hab hier bei mir z.B. 8x2TB RedPro im ZFS Raid10, da geht ein permanenter Durchsatz von ca. 500 bis 700MB/s. Bei den 4SSD's hab ich hier auch ein Raid10 gemacht. Hier gehen dann schon um die 1000MB/s.

Das Delay selbst würde mich nicht wunder, geht bei mir auch rauf. Aber zur Relation der Plattenzahl und dem Raidlevel inkl. dem FSYNCS/SECOND macht es sich eben negativ bemerkbar.

Bei einer großen Datei würde dir der SSDcache ja auch nicht helfen. Hast es schon mal zum Test mit NFS und ner großen Datei versucht?
 
Hey, danke für die Antwort.
Ne NFS habe ich zeitlich noch nicht geschafft.

Werde aber wahrscheinlich die 4x4 TB auch als Raid 10 einrichten. Mal schauen, ob das Problem dann noch immer besteht.

VG
 
Hallo,

ich habe jetzt das Raid Level auf Mirror (bzw. RAID 10) umgestellt. Allerdings sind die FSYNCS/SECOND noch immer sehr niedrig.
Hab auch testhalber das ganze mal ohne den Cache angelegt - unverändert

Code:
root@pve:~# pveperf /storage/
CPU BOGOMIPS:      134389.76
REGEX/SECOND:      1774189
HD SIZE:           7192.00 GB (storage)
FSYNCS/SECOND:     110.87
DNS EXT:           47.34 ms
DNS INT:           0.77 ms (fritz.box)


root@pve:~# zpool iostat -v storage
                              capacity     operations     bandwidth
pool                        alloc   free   read  write   read  write
--------------------------  -----  -----  -----  -----  -----  -----
storage                     2.27M  7.25T      0      4  4.27K  36.3K
  mirror                    1.09M  3.62T      0      2  2.14K  17.2K
    wwn-0x5000c500a6a1137f      -      -      0      1  1.07K  8.60K
    wwn-0x5000c500a6a0e61f      -      -      0      1  1.07K  8.60K
  mirror                    1.18M  3.62T      0      2  2.14K  19.1K
    wwn-0x5000c500a6a15b33      -      -      0      1  1.07K  9.57K
    wwn-0x5000c500a6d21aef      -      -      0      1  1.07K  9.57K
cache                           -      -      -      -      -      -
  wwn-0x50025385a008a766      44K   119G      0      0    315    444
--------------------------  -----  -----  -----  -----  -----  -----


root@pve:~# zpool destroy storage
root@pve:~# zpool create -f storage mirror  wwn-0x5000c500a6a1137f wwn-0x5000c500a6a0e61f mirror  wwn-0x5000c500a6a15b33 wwn-0x5000c500a6d21aef

root@pve:~# zpool iostat -v storage
                              capacity     operations     bandwidth
pool                        alloc   free   read  write   read  write
--------------------------  -----  -----  -----  -----  -----  -----
storage                      456K  7.25T     10    156   683K  2.92M
  mirror                     168K  3.62T      5     67   341K  1.35M
    wwn-0x5000c500a6a1137f      -      -      2     34   171K   690K
    wwn-0x5000c500a6a0e61f      -      -      2     33   171K   690K
  mirror                     288K  3.62T      5     88   341K  1.57M
    wwn-0x5000c500a6a15b33      -      -      2     43   171K   803K
    wwn-0x5000c500a6d21aef      -      -      2     45   171K   803K
--------------------------  -----  -----  -----  -----  -----  -----


root@pve:~# pveperf /storage/
CPU BOGOMIPS:      134389.76
REGEX/SECOND:      1792484
HD SIZE:           7192.00 GB (storage)
FSYNCS/SECOND:     115.45
DNS EXT:           49.81 ms
DNS INT:           0.77 ms (fritz.box)

root@pve:~# pveperf /vm-storage/
CPU BOGOMIPS:      134389.76
REGEX/SECOND:      1806661
HD SIZE:           1324.33 GB (vm-storage)
FSYNCS/SECOND:     114.33
DNS EXT:           47.95 ms
DNS INT:           0.86 ms (fritz.box)


root@pve:~# pveperf /workstation/
CPU BOGOMIPS:      134389.76
REGEX/SECOND:      1698040
HD SIZE:           447.72 GB (workstation)
FSYNCS/SECOND:     5205.82
DNS EXT:           47.96 ms
DNS INT:           0.77 ms (fritz.box)

root@pve:~# pveperf
CPU BOGOMIPS:      134389.76
REGEX/SECOND:      1820589
HD SIZE:           206.04 GB (rpool/ROOT/pve-1)
FSYNCS/SECOND:     4040.72
DNS EXT:           49.55 ms
DNS INT:           0.79 ms (fritz.box)

Das PVE sowie workstation laufen auf Intel SSDs. Die vm-storage sowie storage sind Seagate EXOS 7E8 Platten, welche über einen Onboard LSI 3008 angeschlossen sind.

Ich habe gerade noch etwas recherchiert und habe zu Testzwecken den Sync auf disabled gesetzt. Dann sieht das ganze doch schon etwas anders aus:
Code:
root@pve:~# zfs set sync=disabled storage
root@pve:~# pveperf /storage/
CPU BOGOMIPS:      134389.76
REGEX/SECOND:      1819851
HD SIZE:           7192.00 GB (storage)
FSYNCS/SECOND:     23699.57
DNS EXT:           49.71 ms
DNS INT:           0.77 ms (fritz.box)
root@pve:~#

Ich werde mich in die Richtung weiter belesen, bin aber - gerade als PVE Neuling - für weitere Tipps dankbar.

vg wit4r7

PS: Ich weiß sync=disabeld ist nicht gut, allerdings hängt der Server an einer USV und ist auch nur im private Umfeld im Einsatz.
 
  • Like
Reactions: fireon
Moin Zusammen,

ich habe mich gerade hier angemeldet, weil ich deine (wit4r7) Hardwarekonfiguration (CPU: AMD EPYC 7281 2.7GHZ 16-CORE | Mainboard: Supermicro Motherboard H11SSL-NC | RAM: 4x 16GB Samsung DDR4-2666 regECC ) gefunden habe, denn ich habe mir genau die gleiche Konfiguration überlegt und bin sehr interessiert daran, ob sie läuft.

Mein Händler hat mir davon abgeraten, weil Xeon viel besser ist und das auch jeder nimmt und sowieso nix von (Debian 9) Proxmox auf der Supermicro Website steht und das deswegen auch nicht richtig laufen wird. Da ich dadurch stark verunsichert bin, lese ich alles zum Thema Proxmox VE und Epyc.

Deshalb die Frage: Ist der Broadcom (LSI) 3008 (SAS Raid-Controller) umgeflasht in den IT-Mode?

Wenn nicht, ist das vielleicht der Flaschenhals, da der Controller sein eigenes Ding machen will und ZFS damit nicht klar kommt. Mit einer 50 GB Videodatei sollte eine Standard-Konfiguration von SAMBA eigentlich klar kommen, ganz ohne Tricks.

Mit freundlichen Grüßen

Wayne Schlegel
 
Nein der LSI 3008 ist nicht geflashed. Ist ein guter Hinweis. Aber was mich halt am meisten wundert, dass die Leistung halt eben zusammenbricht und nicht von Anfang an niedrig ist.
 
Ich melde mich mal wieder. Ich habe zwischenzeitlich den LSI auf IT Mode flashen können. Ich habe allerdings noch immer relativ wenig "FSYNCS" auf dem Pool. So wie ich (als PVE Anfänger) das verstanden habe, ist das ein Indicator?!
Der Wert hat sich durch das flashen nicht geändert.
Code:
root@pve:~# pveperf /storage/
CPU BOGOMIPS:      134376.64
REGEX/SECOND:      1784876
HD SIZE:           7192.00 GB (storage)
FSYNCS/SECOND:     112.17
DNS EXT:           38.75 ms
DNS INT:           0.74 ms (fritz.box)
root@pve:~# zpool iostat -v storage
                              capacity     operations     bandwidth
pool                        alloc   free   read  write   read  write
--------------------------  -----  -----  -----  -----  -----  -----
storage                      432K  7.25T      0      9  2.44K  55.8K
  mirror                     244K  3.62T      0      4    860  28.9K
    wwn-0x5000c500a6a1137f      -      -      0      2     41  14.5K
    wwn-0x5000c500a6a0e61f      -      -      0      2    818  14.5K
  mirror                     188K  3.62T      0      4  1.60K  26.9K
    wwn-0x5000c500a6a15b33      -      -      0      2    818  13.4K
    wwn-0x5000c500a6d21aef      -      -      0      2    818  13.4K
cache                           -      -      -      -      -      -
  wwn-0x50025385a008a766      44K   119G      0      0    732    861
--------------------------  -----  -----  -----  -----  -----  -----

Bin über weitere Hilfe sehr dankbar!

Ich weiß nicht, ob ich die Hardware, als Komponente ausschließen kann? Wir reden über ein m.E. recht performantes System mit guten Komponenten (SAS Seagate Exos 7E8 Platten, LSI 3008 Controller...) Oder kann das Problem da liegen?

VG wit4r7
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!