Das Forum hier ist community support.Schade, dass sich hier niemand vom Proxmox Support Team meldet.
Die Trennung ist schon sinnvoll. Mache ich auch seit vielen Jahren so.Macht nur Sinn bei unterschiedlichen Platten, aber hier sind es die Gleichen !!
Außerdem würde ich die Vdisks auf readahead setzen, weil die PBS chunks 1,5-4MB groß sind und du x FS 4k requests dazu erzeugst, die alle eine zusätzliche Latency erzeugen, anstatt sie bereits im Vorfeld in den ctrl Cache zu holen.
Was Dell Vertriebler zusammenstellen, da gibt’s teilweise ganz schlimme Sachen.Interessanr, das wurde so direkt von Dell zusammengestellt und ist ab Dell Werk so und ist auch Offiziell Supported.
Sinnvoll ist das aber trotzdem nicht. Man bremst die NVMe massiv aus.Bei einem R660 gehen nur 8 NVMe
Bei einem R760 gehen 24 NVMe mit zwei Controller. Wobei jeder Controller 12 NVMe kann
Config richtig lesen !! Was da angelegt wurde ist "vergleichsweise in zfs Logik":Die Trennung ist schon sinnvoll. Mache ich auch seit vielen Jahren so.
Aber fio lesenwerte / random read sind auch mega schnellZudem sieht es mir mehr anch einem Lese- oder Verarbeitungsproblem aus, denn nur "1Gbit/s" Backup-Schreibleistung bei den fio Werten läßt es nicht auf der write Seite erkennen.
Kleiner Tipp, bitte mal richtig lesen.Config richtig lesen !! Was da angelegt wurde ist in zfs Logik:
Lege auf allen 12 nvme 2 Partitionen (oder namespaces) an, eine kleine und eine große (vergessen der Einfachheit hier mal den bootmanager),
zpool create rpool raidzX nvme{0..11}n0p1 und danach ein
zpool create data raidzX nvme{0..11}n0p2.
Das ist extrem weit von best paractise und hat nichts mit "Trennung" zu tun !!!
Füer einen nvme Tausch müßte man da auch 2 resilver für beide zpools auf den gleichen nvmes starten.
We use essential cookies to make this site work, and optional cookies to enhance your experience.