Welcher Raid Controller ist mit Proxmox kompatibel

micha79

New Member
Dec 21, 2022
25
1
3
Hallo zusammen,

ich finde im Inet leider nur recht schwammige Antworten, welche Raid Controller mit der aktuellen Proxmox-Version bzw. mit dem Kernel 6.8 kompatibel sind.
Mir geht´s vor allem um Controller von Areca oder LSI.

Selbst auf der Wiki-Seite steht nicht wirklich viel:
https://pve.proxmox.com/wiki/Raid_controller

Gibt es sonst noch gute Seiten im Inet mit einer Kompatibilitätsübersicht?
 
Hallo zusammen,

ich finde im Inet leider nur recht schwammige Antworten, welche Raid Controller mit der aktuellen Proxmox-Version bzw. mit dem Kernel 6.8 kompatibel sind.
Mir geht´s vor allem um Controller von Areca oder LSI.

Selbst auf der Wiki-Seite steht nicht wirklich viel:
https://pve.proxmox.com/wiki/Raid_controller

Gibt es sonst noch gute Seiten im Inet mit einer Kompatibilitätsübersicht?
thomas-krenn.com bietet auf proxmox getestete Systeme an. Du kannst das "ausnutzen" und einfach einmal schauen, was sie verbauen.

Und damit sie auch etwas davon haben: thomas-krenn ist wegen dieses services und auch sonst in allen belangen ein absolut empfehlenswerter Hardware Lieferant. wir haben nur beste Erfahrungen.
 
Hallo..
Vielen Dank für die Rückmeldungen!

Den Hinweis auf Thomas-Krenn finde ich richtig gut. Schaue ich mir mal an.
ZFS ist wahrscheinlich etwas überdimensioniert für das, was ich brauche. Ein einfaches Raid 1 mit 2 SSD reicht mir zur Absicherung vollkommen aus.
 
ZFS ist wahrscheinlich etwas überdimensioniert für das, was ich brauche. Ein einfaches Raid 1 mit 2 SSD reicht mir zur Absicherung vollkommen aus.
Genau dafür ist ZFS bestens geeignet :)
Du kannst den Controller weglassen, sparst Strom und hast eine Fehlerquelle reduziert.
Wenn du noch ein paar GB RAM übrig hast, hast du dank ARC sogar noch die bessere Performance.
 
Ich hatte mich jetzt etwas in ZFS eingelesen.
Zum derzeitigen Zeitpunkt traue mich noch nicht so richtig in einer produktiven Umgebung an das Thema dran.

Da alle anderen Software-Raid Varianten nicht offiziell unterstützt werden, wird es doch ein HW-Raid Controller werden.

Z.b. einer von Areca aus der Rehe ARC-12x.

Hier gibt es sogar aktuelle Treiber:
https://www.areca.com.tw/products/sasadapters-12x4.html

Es scheint aber auch so zu sein, dass die "12x-Karten" (noch) direkt erkannt werden.
Meine alte 1200 von Areca wurde es zumindest. Die Karte ist aber zu alt und zu langsam; PCIe 1x.
 
Zum derzeitigen Zeitpunkt traue mich noch nicht so richtig in einer produktiven Umgebung an das Thema dran.
Doof Frage, aber warum? Solange Du nichts an den Settings rumfummelst, keine RAIDZ sondern mirror benutzt, und die Platten direkten Zugriff haben ohne RAID Kontroller, bist du mit ZFS im Produktivbetrieb besser aufgehoben als mit jedem RAID Controller.
 
Gibt doch keine doofen Fragen, oder? :)
Wie gesagt, hab mich damit noch zu wenig beschäftigt.
Lese immer was von ECC-Ram Pflicht und das generell ZFS mehr Ram im Server (ver)braucht.

Was ich so auf den ersten Blick nicht mag, ist diese Pool-Sache.
Die Files liegen ja nicht mehr einfach so unterhalb eines Mount-Points. Somit ist ein "einfaches" kopieren, bearbeiten usw. nicht möglich.
 
ECC ist nicht mehr Pflicht als bei nicht ZFS Dateisystemen.
Aber ja, grundsätzlich ist ECC natürlich immer super. Bei der Fehlersuche und beim Ausschluss von Problemen hilft es enorm.

Für Server oder Hypervisor wie Proxmox ist darum ECC "Pflicht" unabhängig ob drunter ZFS läuft oder nicht :)

Das mit dem RAM ist auch so ein Mythos. ZFS nutzt RAM als read cache. Dies nennt sich ARC (adaptive read cache).
RAM ist zum brauchen da, leerer RAM ist verschwendeter RAM. Darum nutzt BSD fast 100% des RAM, Linux hat die Limite bei 50%.
Beide haben aber gemeinsam, dass sie falls RAM benötigt wird, ARC einfach geschrumpft wird.

Wenn dir das nicht passt und du gerne leeren RAM hast, kannst du auch einfach den ARC auf 2GB limitieren und ZFS nimmt sich nie mehr als 2GB.

Das mit dem Pool verstehe ich nicht so ganz. ZFS Pools lassen sich eigentlich ziemlich einfach importieren, sogar auf anderen Systemen.

Dank ZFS sind auch Snapshots super.

Nur etwas ist ein wenig verwirrend.
ZFS hat datasets und zvols.

Proxmox erstellt ein dataset, nennt es "local" vom type "Directory". Darin kannst du isos und backups usw. speichern.
Proxmox erstelle auch ein zvol, nennt es "local-zfs" vom type "ZFS" und darin sind dann die raw disks der VMs.
 
Ich setze schon seit langer Zeit auf die DELL PERC Controller (aber die Raid 5/6 tauglichen nehmen - nicht die abgespeckten 0/1er).
Das Verwaltungsinterface von DELL ist deutlich besser als das von LSI / Broadcom (MegaRaid), welches die Hardwarebasis ist. Die laufen stabil und machen was sie sollen.
Die Firma Areca hatte ich bisher noch nicht auf dem Schirm (Adaptec waren ja die Controller für SCSI damals) - haben aber ein interessantes Produktsortiment.

@iThisThingOn
Die Infos zu ZFS - bezüglich dem RAM waren mir auch neu - teilweise wurde das ja von den Herstellern gerne kommuniziert, das man für ZFS viel RAM braucht. Das hat mich auch schon davon abgehalten ZFS einzusetzen. Danke für die Info.
 
Was hier noch nicht thematisiert wurde:

ZFS braucht unbedingt passende (Sever) Datenträger, sonst kauft man nach ein paar Wochen neue Datenträger ...

Also bei Geräten wie: Crucial_Px, WD_black/blue, Samsung_EVO, etc. ..... Finger weg von ZFS!
 
ZFS braucht unbedingt passende (Sever) Datenträger, sonst kauft man nach ein paar Wochen neue Datenträger ...
Noch ein Mythos.

Wer auf RAIDZ verzichtet und mirror benutzt, läuft nicht in padding Probleme und muss sich nicht um Details wie volblocksize kümmern.
Die Belastung fast identisch mit ext4.
Nur sync writes belasten ein ZFS ohne SLOG halt doppelt. Ist aber bei einer anständigen TBW auch kein Problem.
Eine WD Black 850 eine Crucial P5 oder eine Samsung 990 EVO, alle mit 1200TBW (2TB ) und 5 Jahren Garantie ode eignen sich toll für ein ZFS!
Billig QLC drives hingegen eignen sich gar nicht.
 
Last edited:
Wow, so unspezifisch wie du schreibst, kann man halt gar nicht darauf eingehen.
Nun der Link, der es schön zusammenstellt, widerspricht mir nicht wirklich, höchstens in Details.
 
Last edited:
Um doch noch was konstruktives beizutragen:
Der neue default ist 16k. Für die meisten use cases passt dies ziemlich gut, ohne krasse write amplification.
Bei den meisten use cases werden auch nur wenige sync writes kommen, die doppelt geschrieben werden.

Aber das ist alles nur graue Theorie, wir können es uns auch mit realen Beispielen anschauen.

Mein Proxmox host hat 8 VMs. Nextcloud, pihole, jellyfin, NGXIN usw.
Die beiden SSDs laufen seid 416 Tagen.
Beide SSDs sind 1TB.
Die WD Red ist bei wearout 5%, die Kingston SEDC bei 2%.

Die WD Red hat eine TBW von 2000TB.
Bleibt die Belastung in etwa gleich, sind also noch über 20 Jahre drin bis zum erreichen der TBW.
Bei 1200TBW sind es dann halt 10 Jahre.
 
Last edited:
Oder um es ganz genau zu nehmen:
70 TB geschrieben in 416 Tagen, sind 0.168269230769231TB pro Tag.
Bei einer SSD mit 1200TB wären dies 7131 Tage oder 19.53 Jahre.

Aber ja, eine Crucial P3 Plus hat gerade mal 220TBW. Das wäre die Platte bereits nach 3.5 Jahren durch. Das wäre mir auch zu knapp.
 
Last edited:
70 TB in 400 Tagen ist ja auch nix. Unsere kleine Firma hat seit Juni letzten Jahres neue SSDs bekommen und diese sind jetzt bei 152 TB Schreibleistung. 0% Wearout. Und wir haben gerade mal 4 VMs und 5 Container am Laufen, was auch noch nix ist.
Kommt also ganz auf den Einsatzzweck an und ob man mit der stark gedrosselten Geschwindigkeit leben kann.
 
Kommt halt immer auf den use case an. Für ein homelab ist es ziemlich viel. Für eine Firma nicht zwingend.

Und klar, wer mehr TBW oder besser sync write performance möchte, braucht PLP und oder SLOG. Da OP seinen use case nicht beschreiben hat, gehe ich mal von einem normalen homelab use case aus.

Deine Firma hat ja auch „nur“ das doppelte von mir geschrieben. Läuft dann halt auf einer evo nur 7.89 Jahre :)
 
Last edited:
Kommt halt immer auf den use case an. Für ein homelab ist es ziemlich viel. Für eine Firma nicht zwingend.

Und klar, wer mehr TBW oder besser sync write performance möchte, braucht PLP und oder SLOG. Da OP seinen use case nicht beschreiben hat, gehe ich mal von einem normalen homelab use case aus.

Deine Firma hat ja auch „nur“ das doppelte von mir geschrieben. Läuft dann halt auf einer evo nur 7.89 Jahre :)
Wobei das rein Theoretisch ist. In der Regel halten die EVO bei ZFS nur einen Teil der versprochenen Writes. Da ich nur Enterprise SSDs nutze, sehe ich das entspannt, aber ich habe früher mal Consumer SSDs zum testen benutzt, welche alle zwischen 30-50% der angegebenen Writes gestorben sind. Die ersten habe ich noch getauscht bekommen, macht aber trotzdem keinen Spaß.
 
  • Like
Reactions: JensF

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!