Hi,
ich darf eine Proxmoxinstallation troubleshooten die ich nicht selbst durchgeführt habe. *Freude macht sich breit*
Ich komme eher aus dem vmWare Lager und habe mit Proxmox bisher nicht wirklich viele Erfahrungen gemacht.
Nun läuft die Kiste schon eine Weile, aber es wird jetzt über Performanceprobleme geklagt. Nach ein bisschen umschauen auf dem System glaube ich nicht dass es vom Netzwerk her kommt, sondern von der HDD-Performance.
Habe einige Male CrystaldiskMark in zwei VMs laufen lassen (Ja, ich weiß, nicht das beste Programm) und die Ergebnisse variieren sehr stark und wirken eher random.
Server2012R2 VM:
Win10 VM:
Auch auf dem Host selbst mal mit fio getestet, 4K Random
1. Lauf:
Run status group 0 (all jobs):
READ: bw=203MiB/s (212MB/s), 203MiB/s-203MiB/s (212MB/s-212MB/s), io=11.9GiB (12.8GB), run=60044-60044msec
WRITE: bw=202MiB/s (212MB/s), 202MiB/s-202MiB/s (212MB/s-212MB/s), io=11.9GiB (12.7GB), run=60044-60044msec
danach:
Run status group 0 (all jobs):
READ: bw=4516KiB/s (4624kB/s), 4516KiB/s-4516KiB/s (4624kB/s-4624kB/s), io=268MiB (281MB), run=60722-60722msec
WRITE: bw=4542KiB/s (4651kB/s), 4542KiB/s-4542KiB/s (4651kB/s-4651kB/s), io=269MiB (282MB), run=60722-60722msec
Irgendwie wirkt das auf mich alles seltsam... Weiß da jemand wie ich das Problem weiter eingrenzen könnte? Aktuell vermute ich ja schon fast den Raidcontroller des Systems.
Ist übrigens ein Xeon 6Core/12Threads, 2x16GB RAM, 2x 4TB WD und "richtigem" RaidController MegaRAID9361. Auf dem System laufen aktuell nur vier VMs (3x Windows, 1xLinux).
Und was mir eben beim Schreiben des Threads noch auffällt:
Wenn das RAID richtig eingerichtet wäre, dürfte doch sdb da gar nicht erscheinen? Oder liege ich da komplett falsch? Habe mit Raids unter Linux nicht wirklich viel Erfahrung....
Wäre schön wenn mir hier jemand noch ein paar Ideen geben könnte.
mfg
ich darf eine Proxmoxinstallation troubleshooten die ich nicht selbst durchgeführt habe. *Freude macht sich breit*
Ich komme eher aus dem vmWare Lager und habe mit Proxmox bisher nicht wirklich viele Erfahrungen gemacht.
Nun läuft die Kiste schon eine Weile, aber es wird jetzt über Performanceprobleme geklagt. Nach ein bisschen umschauen auf dem System glaube ich nicht dass es vom Netzwerk her kommt, sondern von der HDD-Performance.
Habe einige Male CrystaldiskMark in zwei VMs laufen lassen (Ja, ich weiß, nicht das beste Programm) und die Ergebnisse variieren sehr stark und wirken eher random.
Server2012R2 VM:
Win10 VM:
Auch auf dem Host selbst mal mit fio getestet, 4K Random
1. Lauf:
Run status group 0 (all jobs):
READ: bw=203MiB/s (212MB/s), 203MiB/s-203MiB/s (212MB/s-212MB/s), io=11.9GiB (12.8GB), run=60044-60044msec
WRITE: bw=202MiB/s (212MB/s), 202MiB/s-202MiB/s (212MB/s-212MB/s), io=11.9GiB (12.7GB), run=60044-60044msec
danach:
Run status group 0 (all jobs):
READ: bw=4516KiB/s (4624kB/s), 4516KiB/s-4516KiB/s (4624kB/s-4624kB/s), io=268MiB (281MB), run=60722-60722msec
WRITE: bw=4542KiB/s (4651kB/s), 4542KiB/s-4542KiB/s (4651kB/s-4651kB/s), io=269MiB (282MB), run=60722-60722msec
Irgendwie wirkt das auf mich alles seltsam... Weiß da jemand wie ich das Problem weiter eingrenzen könnte? Aktuell vermute ich ja schon fast den Raidcontroller des Systems.
Ist übrigens ein Xeon 6Core/12Threads, 2x16GB RAM, 2x 4TB WD und "richtigem" RaidController MegaRAID9361. Auf dem System laufen aktuell nur vier VMs (3x Windows, 1xLinux).
Und was mir eben beim Schreiben des Threads noch auffällt:
Code:
[root@host tmp]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 3.7T 0 disk
├─sda1 8:1 0 1007K 0 part
├─sda2 8:2 0 512M 0 part
└─sda3 8:3 0 3.7T 0 part
├─pve-swap 253:0 0 16G 0 lvm [SWAP]
├─pve-root 253:1 0 300G 0 lvm /
├─pve-data_tmeta 253:2 0 15.8G 0 lvm
│ └─pve-data-tpool 253:4 0 3T 0 lvm
│ ├─pve-data 253:5 0 3T 0 lvm
│ ├─pve-vm--100--disk--0 253:6 0 800G 0 lvm
│ ├─pve-vm--112--disk--0 253:7 0 141.8G 0 lvm
│ ├─pve-vm--112--disk--1 253:8 0 100G 0 lvm
│ ├─pve-vm--114--disk--0 253:9 0 250G 0 lvm
│ ├─pve-vm--114--disk--1 253:11 0 120G 0 lvm
│ └─pve-vm--113--disk--0 253:13 0 150G 0 lvm
└─pve-data_tdata 253:3 0 3T 0 lvm
└─pve-data-tpool 253:4 0 3T 0 lvm
├─pve-data 253:5 0 3T 0 lvm
├─pve-vm--100--disk--0 253:6 0 800G 0 lvm
├─pve-vm--112--disk--0 253:7 0 141.8G 0 lvm
├─pve-vm--112--disk--1 253:8 0 100G 0 lvm
├─pve-vm--114--disk--0 253:9 0 250G 0 lvm
├─pve-vm--114--disk--1 253:11 0 120G 0 lvm
└─pve-vm--113--disk--0 253:13 0 150G 0 lvm
sdb 8:16 0 1.8T 0 disk
└─sdb1 8:17 0 1.8T 0 part
[root@host tmp]#
Wenn das RAID richtig eingerichtet wäre, dürfte doch sdb da gar nicht erscheinen? Oder liege ich da komplett falsch? Habe mit Raids unter Linux nicht wirklich viel Erfahrung....
Wäre schön wenn mir hier jemand noch ein paar Ideen geben könnte.
mfg
Last edited: