hallo,
ich habe diverse VMs auf meinem ceph storage am laufen (im grunde auch keine probleme). nun habe ich eine VM mit einer software (SCI) welche nun probleme macht. der hersteller sagt mein storage wäre zu langsam, jetzt bin ich mir nicht ganz sicher was ich davon halten soll. der hersteller sagt ich müsse mit folgenden command mindestens 500kb/s schaffen:
leider komme ich nur unterirdische werte:
gehe ich mit dem `bs` parameter nach oben auf zB 4MB oder 32MB, schaut das wieder ganz anders aus:
mein storage ist mittels 10GB netzwerk angebunden (mittels iperf komme ich auf ~9,8GB/s), fährt aktuell aber auch noch mit einem 1500er MTU.
bei dem storage handelt es sich um 3 nodes a 10 platten (HUS726040AL5210 - HGST Ultrastar 7K6000 4TB 7200 RPM 512e SAS 12Gb/s 128MB Cache) und auf jeder platte läuft ein OSD mit.
ich habe auch direkte benchmarks gegen den storage gefahren (ohne VM) und bin dort auf weit über 600MB/s gekommen. aber eben dieses schreiben von 1kb packages macht dem ding doch etwas zu schaffen.
die VM nutzt als SCSI controller `virtIO SCSI` und der HDD cache ist zusätzlich auf "write through" gesetzt. nützt alles nix
ansonsten fahre ich ein Proxmox VE 6.2 und im grunde alles eine stock installation inkl. ceph. handelt es sich bei meinen zahlen um normale werte oder müsste da eigentlich viel mehr gehen?
PS:
auf meinem lokalen rechner mit einer SSD habe ich den gleichen befehl abgesetzt und komme da auch nicht weit über 200kb/s, denke also wenn ich dann übers netzwerk auf ein ceph mit ~20kb/s gar nicht so schlecht fahre????
greez & thx,
volker.
ich habe diverse VMs auf meinem ceph storage am laufen (im grunde auch keine probleme). nun habe ich eine VM mit einer software (SCI) welche nun probleme macht. der hersteller sagt mein storage wäre zu langsam, jetzt bin ich mir nicht ganz sicher was ich davon halten soll. der hersteller sagt ich müsse mit folgenden command mindestens 500kb/s schaffen:
Code:
dd if=/dev/zero of=./file.tmp bs=1024 count=1000 oflag=dsync status=progress
leider komme ich nur unterirdische werte:
Code:
$ dd if=/dev/zero of=./file.tmp bs=1024 count=1000 oflag=dsync status=progress
419840 bytes (420 kB, 410 KiB) copied, 25 s, 16.8 kB/s
414+0 records in
414+0 records out
423936 bytes (424 kB, 414 KiB) copied, 25.2822 s, 16.8 kB/s
gehe ich mit dem `bs` parameter nach oben auf zB 4MB oder 32MB, schaut das wieder ganz anders aus:
Code:
$ dd if=/dev/zero of=./file.tmp bs=4MB count=1000 oflag=dsync status=progress
260000000 bytes (260 MB, 248 MiB) copied, 11 s, 23.6 MB/s
69+0 records in
69+0 records out
276000000 bytes (276 MB, 263 MiB) copied, 11.4777 s, 24.0 MB/s
Code:
$ dd if=/dev/zero of=./file.tmp bs=32MB count=1000 oflag=dsync status=progress
896000000 bytes (896 MB, 854 MiB) copied, 11 s, 79.6 MB/s
30+0 records in
30+0 records out
960000000 bytes (960 MB, 916 MiB) copied, 11.9299 s, 80.5 MB/s
mein storage ist mittels 10GB netzwerk angebunden (mittels iperf komme ich auf ~9,8GB/s), fährt aktuell aber auch noch mit einem 1500er MTU.
bei dem storage handelt es sich um 3 nodes a 10 platten (HUS726040AL5210 - HGST Ultrastar 7K6000 4TB 7200 RPM 512e SAS 12Gb/s 128MB Cache) und auf jeder platte läuft ein OSD mit.
ich habe auch direkte benchmarks gegen den storage gefahren (ohne VM) und bin dort auf weit über 600MB/s gekommen. aber eben dieses schreiben von 1kb packages macht dem ding doch etwas zu schaffen.
die VM nutzt als SCSI controller `virtIO SCSI` und der HDD cache ist zusätzlich auf "write through" gesetzt. nützt alles nix
ansonsten fahre ich ein Proxmox VE 6.2 und im grunde alles eine stock installation inkl. ceph. handelt es sich bei meinen zahlen um normale werte oder müsste da eigentlich viel mehr gehen?
PS:
auf meinem lokalen rechner mit einer SSD habe ich den gleichen befehl abgesetzt und komme da auch nicht weit über 200kb/s, denke also wenn ich dann übers netzwerk auf ein ceph mit ~20kb/s gar nicht so schlecht fahre????
greez & thx,
volker.