geht bei mir leider auch nicht, aber wenn du mal noch bei einer anderen Tagung (vorzugsweise mehr Richtung Bayern) bist, schau ich gerne ob ich das einrichten kann.
ok, alles klar, die Latenzen in der GUI sind aktuell bei 0 bis 1 vereinzelt mal 2 oder 3
Testen kann ich bei uns ruhig mal, die VM's sind alle von uns , der dbench macht eh nicht so viel Wind im CEPH
Schade, den Workshop bei der Kielux hätte ich gerne besucht, Kiel ist leider an dem Termin...
Mit welchem Tool testet du die Latenz innerhalb einer VM?
Das war bei mir jetzt recht simpel mit "dbench 5" um zu sehen was los ist. Mit "dbench 1" sind es so 4/5 ms
Backend Netz ist leider nur 2 x 25GBit da wir zum Zeitpunkt der Einrichtung nicht genügend 100 GBit Ports zur Verfügung hatten...
Unser Setup ist All Flash mit nvme (enterprise Intel S3510)
HDD macht mit VM's keinen Sinn, das hatte ich schon vor Jahren in den Testclustern rausgefunden.
Netzwerk lief mit den ziemlich gleichen Werten im CEPH Backend wie mit dem 6.8.4 Kernel (iperf3)
Alles sehr komisch - wir hatten...
Gestern hatten wir auf unserem Proxmox Cluster einen Update durchgeführt, dabei wurde vom Kernel 6.8.4-3 auf 6.8.8-4 upgedatet
Seit dem hatten wir etliche Hänger in den VM's und etliche "Slow Log" Meldungen im ceph.log
Ebenso waren extrem schwankend Latenzzeiten beim Zugriff auf Dateisysteme...
It does not work with Sectigo CA:
Attempting to register account with 'https://acme.sectigo.com/v2/OV'..
Generating ACME account key..
Registering ACME account..
Registration failed: Error: POST to https://acme.sectigo.com/v2/OV/newAccount...
Hi,
i want to use acme for Certificates from Sectigo. But I'm missing the options for the external binding as the registration needs both an eab-kid and eab-hmac-key parameter.
With certbot these are the --eab-kid and --eab-hmac-key with the appropriate values from our Sectigo Account
This would be interesting for me too.
We have several applications which would need the link speed inside the VM:
-> Samba ->it would use multiple Streams only with link speeds of 10Gbit/s and up, and the number of streams is dependent of the Link speed
Same for Lustre and Irods.
As it is...
It is not a myth, just don't use a Raid Controller or anything similar below a ZFS Pool. ZFS likes to see all disks directly. Some features even require this, for example the protection against silent bitrot.
Just use adequat SAS oder NVME HBA's
if you need a consistent database state on backup you have to use a hook script.
Read this thread: https://forum.proxmox.com/threads/mysql-databases-in-vm-backups.72912/
you _must_ configure Rapid Spanning Tree Protocol, STP is probably def
I would not recommend the broadcast setup in my opinion it is error prone.
Try instead the routed setup
ok if you see the drives in proxmox (usually as /dev/sd... ) then it is ok.
At a last resort it is easily possibly to reflash an IR mode controller to IT mode and vice versa (same hardware flashed with Megaraid code is another thing, it is often not possible to flash these beasts to IT/IR Mode)
One more point:
in my experience backing the CEPH OSD's with a SSD is a pain in the ASS in case you need to replace a drive or even the SSD.
Also performance is not as good as you probably want to have it. It is of course much better as just with spinning drives, but at the lowest end you...
If I see it correctly from the SPECS CRA3338 is a Broadcom Controller flashed in the so called "IR" Mode. I'm not sure if it is really possible to expose the drives in JBOD mode.
For CEPH you need to expose the drives directly. So I would recommend to buy a version of the controller which is...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.