Although not recommended generally, we use the HP 840 in RAID Mode with JBOD-RAID0, so we can use cache settings and battery/capacitor backuped cache. You must know what you do in this case and check your use case (e.g. data security) against this.
Using the HP controller without it´s features...
We use HP G9 also. But with another HBA (P840), and we use raid mode. As far as i remember we did not had these problems with local attached storage (zfs e.g.). But we used the battery backuped write cache from the P840er. Without that, most performance was "ugly".
I do not remember details...
so you are benchmarking ceph?
Then there are thousands of parameters to look at. Network settings for ceph. Ceph version. Ceph storage / osd parameter, pool redundancy, number of nodes, switch settings, and many many aspects more.
If i see it right you test the ceph behavior (fsync=1) in the vm. That will be "nested" in some way i think.
Normal processes in the vm will not use fsync normally. DBMS will use fsync=1 maybe, but then most sequential (redo logs e.g.).
btw., bzgl. des Monitoring Tools ist es aber ja auch genau richtig, dass der freie Wert da genommen wird. Und das genügend frei ist. "Gleich" wirst Du m.E. nicht hinbekommen.
Hey,
nein, der "freie Speicher" ist bei Ceph nicht ganz trivial. Hat was mit dem Placement zu tun. Ceph schaut, wieviel es an Daten/PGs noch bei gegebener Redundanzvorgabe schreiben kann. Maßgeblich sind da die vollsten OSD und Nodes an der Berechnung beteiligt. Die STDDEV: 17.36 erscheint mir...
oh, das war hier auf Deutsch.
Im Storage Tab zeigt der nur den noch verfügbaren Speicher an. Nicht die Pool _Size_. Zumindest habe ich das hier gerade quergecheckt und bei uns ist das so.
i think your first screenshot ist from storage tab? I checked this here. There you see the free space in the brackets.
Look at the ceph tab, there should stand 176 TB, maybe.
Hey,
for tcp connections there are a lot of parameters, that can cause such sort of trouble. I myself observed through wireshark, that a server with problems did not scale tcp window size correctly.
Connection was bound to 400kbit/s therefore.
It was a typo in the sysctl settings for the tcp...
Hey,
maybe you can test with different settings for the offload features in the NIC Driver. I have no concrete advice, but you often find hints to problems with offloading & virtualization.
Hey,
i use "normal XP" virtualized on proxmox for legacy software as well. run´s out of the box and stable. I tried the nested thing also, it works, but no need.
Before proxmox i used VirtualBox with an Web-GUI phpvirtualbox IIRC. If you are using industry software an need USB or a good timing...
Ganz ehrlich, da kann ich jetzt auch keine wirklichen Rat geben, der nicht vielleicht noch was schlimmer macht.
Liegt auch dran, was da für Daten drauf sind und wie schlimm das ist, die zu verlieren.
Vermutlich würde ich den physikalischen Rechner herunterfahren. Dann Platte abziehen. Dann...
für mich sieht das so aus, als wenn da mal der Hypervisor und mal die VM drauf zugegriffen haben.
- USB passt nicht zu sda;
- "hängt tagelang"
- durchgereicht
- auf anderem System tat es
Alles Hinweise, dass da vielleicht das ein oder andere durcheinander gelaufen ist. Oder versucht wurde.
ganz blöde Frage, aber sda1 ist auch richtig? Evtl. Dateisystem auf sda angelegt, ohne Partition?
was sagt denn die Partitions Tabelle, zum Beispiel per
sfdisk -l /dev/sda
Grüße
virtio-scsi, windows (10) & linux guests, older and newer kernel.
One very old machine with 2.2 kernel tested, with ide.
But no virtio-blk and no sata.
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.