HBA Controller sinnvoll?

semiworld

New Member
Jun 14, 2024
9
1
3
Hallo,

ich bräuchte eure Einschätzung / Wissen für die Anschaffung eines neues Server-Setups:

Geplant ist ein Proxmox Host mit einem Supermicro Mainboard H13SSL-NT mit 6x 960 GB Samsung PM893 2,5" SATA SSD für die VMs. Proxmox selbst auf M.2 SATAs und 128GB. Als Filesystem möchte ich jedenfalls ZFS einsetzen. Auf dem Host soll derzeit ein VM-Guest mit Windows Server 2022 Standard welcher als kleiner Terminalserver mit 10 User für Office Anwendungen betrieben werden soll.

Unser Hardware Lieferant meint nun, wir sollen uns einen etwaigen HBA Controller sparen und die Platten direkt onboard anhängen ohne dezidierten Controller. Ist das wirklich zu empfehlen? Gibts Vorteile / Nachteile? Oder sollen wir das etwaige besser eventuell in eine stärkere CPU investieren?

Im Falle des Falles hätte ich an einen Broadcom HBA 9500-8i SAS-SATA-NVMe Controller gedacht.

Ich bin für jede Input dankbar. Danke :)

lg,
michael
 
  • Like
Reactions: Johannes S
Servus!

Hab kurz einen Blick auf das Mainboard und den HBA geworfen; ich gebe dem Lieferant in diesem Fall recht.

Das Mainboard hat laut Herstellerseite 8x SATA3 Anschlüsse, also kommst du locker nur mit denen aus. Der HBA den du erwähnt hast kann viel mehr als du vermutlich für 10 Office User brauchen wirst (1024 SAS / SATA3 oder 32 NVMe devices), also ist das mMn. Geld, das lieber in etwas Anderes investiert werden sollte.

Wenn da sonst wirklich nur Office-Zeug drauf laufen wird, dann macht eine leistungsfähigere CPU auch keinen so großen Unterschied mMn.; ich persönlich würde mehr in RAM investieren, damit du mehrere VMs und Container unterstützen kannst, die bisschen mehr RAM brauchen (vor allem wenn es mal mehrere Windows bzw. Windows Server VMs sein werden). Gleichzeitig läuft ZFS idR. besser, je mehr RAM du dem Filesystem gibst.

Ein anderer Tipp wäre noch, die zwei M.2 slots mit gleich großen NVMe SSDs zu belegen. Am besten welche, die power loss protection anbieten. Diese zwei M.2 SSDs dann bei der Installation von PVE als ZFS mirror (also RAID-1) anlegen. Dann rennt PVE also auf einem zpool mit einem mirror, wodurch du ein bisschen Redundanz hast, falls irgendwann mal eine M.2 SSD eingehen sollte. Ist mMn. eher unwahrscheinlich bzw. wird lange dauern, bis das so weit ist, aber man spart sich dann einiges an Stress wenn's mal so weit kommt. Die anderen 6 SSDs kannst du dann in eine zpool config deiner Wahl anlegen (nehme mal an, dass das eh schon dein Plan war).

Allgemein kannst du dann ja immer noch nachrüsten, wenn ihr irgendwann mal einen größeren storage pool braucht. RAM wird sehr schnell sehr teuer je mehr man braucht, also lohnt es sich mMn. da am Anfang mehr Geld reinzustecken. Was für eine CPU du brauchst kommt eher auf die Anzahl der VMs & Container an, die ihr mal laufen lassen wollt und vor allem was die machen sollen.

Hoffe, dass das hilft!
 
Last edited:
Danke für die ausführliche Antwort und den Input. Das hilft schon sehr.

Für Proxmox hatte ich 2 Stk. 240 GB ATP A650Sc Superior M.2 SATA SSDs vorgesehen als RAID1 ZFS RAID-1 Mirror. ;-)

Die Frage wäre noch ob der HBA Controller generell mehr Performance oder so bringen würde im Vergleich zur Lösung onboard?
 
Last edited:
Danke für die ausführliche Antwort und den Input. Das hilft schon sehr.

Für Proxmox hatte ich 2 Stk. 240 GB ATP A650Sc Superior M.2 SATA SSDs vorgesehen als RAID1 ZFS RAID-1 Mirror. ;-)

Die Frage wäre noch ob der HBA Controller mehr Performance oder so bringen würde?

Gerne! Die SSDs schauen auf ersten Blick gut aus; haben auch brav power loss protection laut Datenblatt. (Wenn sie PLP haben sind sie oftmals von guter Qualität, weil Hersteller sich bei billigeren SSDs nicht um sowas scheren; ist also eine gute Heuristik.)

Zwecks Performance: Nein, da merkst du idR. absolut keinen Unterschied. Je nach HBA (und Hersteller) kommts meistens eher darauf an, wie viel PCIe Bandbreite du dem HBA gibst bzw. geben kannst und wie viel Bandbreite die devices brauchen, die du mit dem HBA verbindest.

Oder um es anders mit einem Pi-mal-Daumen Beispiel auszudrücken: Ein HBA mit 4 PCIe lanes wird z.B. 4 NVMe SSDs die jeweils ebenfalls gerne 4 lanes hätten nicht wirklich optimal nutzen können, weil du eigentlich insg. 16 lanes brauchst. Du kannst die NVMes halt idR. schon nutzen, aber wenn du sie alle nutzen willst, ist der HBA das bottleneck.

In deinem Fall spielt das zwar keine Rolle wenn es eh SATA SSDs sein werden, aber hilft evtl. sich das im Hinterkopf zu behalten, für die Zukunft. Ist oft sehr ärgerlich Geld für teure Hardware zu investieren, die man dann nicht voll ausschöpfen kann (oder schlimmer, man kommt erst viel zu spät drauf, das genau das dann Probleme macht).

Also ja, am Mainboard anstecken und gut ist's. ;)
 
Eventuell mal schauen was für ein Gehäuse du bekommst. Enterprise NVMe kosten derzeit gleich oder manchmal sogar weniger als SATA. Wenn das Gehäuse Nativ U.2 NVMe unterstützt, hättest du deutlich mehr Performance und viel länger Ruhe.