Hallo,
wir sind gerade dabei PVE als mögliche Lösung für unsere neue Umgebung zu betrachten und mir sind Probleme bei der Lese-Performance aufgefallen die ich nicht lösen kann. Vielleicht kann mir jemand dabei helfen...
HARDWARE
Server - R7525 (mit 4x25 GBit für iSCSI und 2x25GB VM Traffic)
Switche - 2 x S5248-ON
Storage - Dell ME5024 mit SSDs (4 Ports je Controller)
NETZWERK
Server - 2 Ports sind mit VLAN 4011 (iSCSI) verbunden und 2 Ports mit VLAN 4012 (iSCSI)
Storage - je Controller (A/B) sind jeweils 2 Ports im VLAN 4011 und in 4012
CONFIG
Die MTU wurde auf 9000 gestellt und eine LUN mit 2TB auf RAID 6 and en Host gemappt.
/etc/multipath.conf
multipath -ll
TEST
Die Schreibtests waren ganz OK. Was eventuell auf ein Problem hindeutet sind die Lese-Tests, welche wiederholt eine zu geringe Performance zeigen.
Danke schonmal für die Hilfe.
Thomas
wir sind gerade dabei PVE als mögliche Lösung für unsere neue Umgebung zu betrachten und mir sind Probleme bei der Lese-Performance aufgefallen die ich nicht lösen kann. Vielleicht kann mir jemand dabei helfen...
HARDWARE
Server - R7525 (mit 4x25 GBit für iSCSI und 2x25GB VM Traffic)
Switche - 2 x S5248-ON
Storage - Dell ME5024 mit SSDs (4 Ports je Controller)
NETZWERK
Server - 2 Ports sind mit VLAN 4011 (iSCSI) verbunden und 2 Ports mit VLAN 4012 (iSCSI)
Storage - je Controller (A/B) sind jeweils 2 Ports im VLAN 4011 und in 4012
CONFIG
Die MTU wurde auf 9000 gestellt und eine LUN mit 2TB auf RAID 6 and en Host gemappt.
/etc/multipath.conf
Code:
defaults {
user_friendly_names no
find_multipaths yes
polling_interval 10
no_path_retry queue
}
blacklist {
devnode "^sda$"
}
devices {
device {
vendor "DellEMC"
product "ME5"
path_grouping_policy group_by_prio
path_checker "tur"
hardware_handler "1 alua"
prio "alua"
failback immediate
rr_weight "uniform"
path_selector "service-time 0"
}
}
multipath -ll
Code:
3600c0ff000f949ac64435e6901000000 dm-15 DellEMC,ME5
size=1.8T features='1 queue_if_no_path' hwhandler='1 alua' wp=rw
|-+- policy='service-time 0' prio=50 status=active
| |- 14:0:0:6 sdav 66:240 active ready running
| |- 13:0:0:6 sdat 66:208 active ready running
| |- 18:0:0:6 sdbe 67:128 active ready running
| `- 15:0:0:6 sdbc 67:96 active ready running
`-+- policy='service-time 0' prio=10 status=enabled
|- 12:0:0:6 sdao 66:128 active ready running
|- 16:0:0:6 sdaw 67:0 active ready running
|- 19:0:0:6 sdbd 67:112 active ready running
`- 17:0:0:6 sdbf 67:144 active ready running
TEST
Die Schreibtests waren ganz OK. Was eventuell auf ein Problem hindeutet sind die Lese-Tests, welche wiederholt eine zu geringe Performance zeigen.
Bash:
fio --filename=/dev/mapper/3600c0ff000f949ac64435e6901000000 --direct=1 --rw=write --bs=1M --ioengine=libaio --iodepth=32 --runtime=60 --time_based --group_reporting --name=seq_write_test
seq_write_test: (g=0): rw=write, bs=(R) 1024KiB-1024KiB, (W) 1024KiB-1024KiB, (T) 1024KiB-1024KiB, ioengine=libaio, iodepth=32
fio-3.39
Starting 1 process
Jobs: 1 (f=1): [W(1)][100.0%][w=3347MiB/s][w=3347 IOPS][eta 00m:00s]
seq_write_test: (groupid=0, jobs=1): err= 0: pid=512685: Thu Jan 8 08:41:47 2026
write: IOPS=3329, BW=3330MiB/s (3492MB/s)(195GiB/60009msec); 0 zone resets
slat (usec): min=35, max=2799, avg=71.69, stdev=43.40
clat (usec): min=1292, max=378743, avg=9537.44, stdev=13525.75
lat (usec): min=1370, max=378806, avg=9609.13, stdev=13525.45
clat percentiles (msec):
| 1.00th=[ 4], 5.00th=[ 5], 10.00th=[ 6], 20.00th=[ 6],
| 30.00th=[ 7], 40.00th=[ 7], 50.00th=[ 8], 60.00th=[ 9],
| 70.00th=[ 10], 80.00th=[ 12], 90.00th=[ 15], 95.00th=[ 17],
| 99.00th=[ 22], 99.50th=[ 27], 99.90th=[ 215], 99.95th=[ 218],
| 99.99th=[ 222]
bw ( MiB/s): min= 2862, max= 4176, per=100.00%, avg=3330.38, stdev=162.67, samples=120
iops : min= 2862, max= 4176, avg=3330.38, stdev=162.67, samples=120
lat (msec) : 2=0.03%, 4=1.70%, 10=70.53%, 20=25.93%, 50=1.40%
lat (msec) : 100=0.01%, 250=0.41%, 500=0.01%
cpu : usr=7.40%, sys=17.53%, ctx=116662, majf=0, minf=2366
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=100.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
issued rwts: total=0,199823,0,0 short=0,0,0,0 dropped=0,0,0,0
latency : target=0, window=0, percentile=100.00%, depth=32
Run status group 0 (all jobs):
WRITE: bw=3330MiB/s (3492MB/s), 3330MiB/s-3330MiB/s (3492MB/s-3492MB/s), io=195GiB (210GB), run=60009-60009msec
Bash:
fio --filename=/dev/mapper/3600c0ff000f949ac64435e6901000000 --direct=1 --rw=read --bs=1M --ioengine=libaio --iodepth=32 --runtime=60 --time_based --group_reporting --name=seq_read_test
seq_read_test: (g=0): rw=read, bs=(R) 1024KiB-1024KiB, (W) 1024KiB-1024KiB, (T) 1024KiB-1024KiB, ioengine=libaio, iodepth=32
fio-3.39
Starting 1 process
Jobs: 1 (f=1): [R(1)][0.3%][eta 06h:44m:30s]
seq_read_test: (groupid=0, jobs=1): err= 0: pid=512077: Thu Jan 8 08:40:04 2026
read: IOPS=78, BW=78.3MiB/s (82.1MB/s)(4892MiB/62452msec)
slat (usec): min=38, max=1062, avg=52.38, stdev=36.28
clat (usec): min=1597, max=10719k, avg=408367.90, stdev=1218691.64
lat (usec): min=1953, max=10719k, avg=408420.28, stdev=1218694.35
clat percentiles (msec):
| 1.00th=[ 5], 5.00th=[ 5], 10.00th=[ 5], 20.00th=[ 5],
| 30.00th=[ 6], 40.00th=[ 6], 50.00th=[ 6], 60.00th=[ 17],
| 70.00th=[ 65], 80.00th=[ 161], 90.00th=[ 953], 95.00th=[ 4329],
| 99.00th=[ 5269], 99.50th=[ 5403], 99.90th=[ 9866], 99.95th=[10671],
| 99.99th=[10671]
bw ( KiB/s): min= 6144, max=1245184, per=100.00%, avg=216375.65, stdev=254036.48, samples=46
iops : min= 6, max= 1216, avg=211.30, stdev=248.08, samples=46
lat (msec) : 2=0.04%, 4=0.51%, 10=57.07%, 20=3.31%, 50=6.23%
lat (msec) : 100=8.20%, 250=8.91%, 500=2.02%, 750=0.92%, 1000=3.76%
lat (msec) : 2000=3.21%, >=2000=5.81%
cpu : usr=0.02%, sys=0.42%, ctx=4525, majf=0, minf=8203
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.2%, 16=0.3%, 32=99.4%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
issued rwts: total=4892,0,0,0 short=0,0,0,0 dropped=0,0,0,0
latency : target=0, window=0, percentile=100.00%, depth=32
Run status group 0 (all jobs):
READ: bw=78.3MiB/s (82.1MB/s), 78.3MiB/s-78.3MiB/s (82.1MB/s-82.1MB/s), io=4892MiB (5130MB), run=62452-62452msec
Danke schonmal für die Hilfe.
Thomas
Last edited: