Hardware Frage

Dewald

New Member
Jun 26, 2025
2
0
1
Hi Leute
Hier ein neuer... ;)

Ich habe zwar schon die Suche bemüht aber leider nur veraltete bzw unpassende Vorschläge gefunden.

Konkret habe ich (bzw die kleine Firma um die es geht) aktuell einen Dell T330 (Xeon E3 1240, 32GB Ram, 1 TB Mirror, WIn Server 2012) um den es hauptsächlich geht und einen T140 (Xeon E-2224, 16GB, 1 TB Mirror, Win Server 2019).

Das bzw erstmal der T330 soll virtualisiert werden und er danach als Backup dienen.

Gedacht hatte ich an (Rack/Tower erstmal egal), 64-128GB ECC Ram, 3* 2TB SSD als Raid 5/Raid-Z1 (sprich 4TB nutzbar), redundantes Netzteil, Win Server2025 kompatibel.
Für Proxmox reichen ja 2* 256GB SSD im Raid zur Installation?

Grob um die 2.5k€

Bei Dell bin ich nicht wirklich fündig geworden, da ich da die SSD Konfiguartion nicht hinbekomme bzw nur zu abartigen Preisen.

Wäre sowas passend? (SSDs kommen noch dazu)
https://www.ico.de/proxmox-r27b-2he-supermicro-server--ybto54?aktion=Vorschau&nummer=313903617638


Danke euch
 
Für 2,5k bekommst du vermutlich nur etwas gebrauchtes, mit der gewünschten Ausstattung.
Mir stellt sich die Frage, was für SSDs du benutzen möchtest und RaidZ ist für VMs eh weniger geeignet.
Dann eher größere SSDs im Mirror.
Wenn du eh einen Mirror fährst, kannst du dir auch die extra SSDs sparen und einfach nur 2 schnelle SSDs konfigurieren.

Ungefähr so etwas: Beispiel
 
  • Like
Reactions: Johannes S
Für 2,5k bekommst du vermutlich nur etwas gebrauchtes, mit der gewünschten Ausstattung.
Mir stellt sich die Frage, was für SSDs du benutzen möchtest und RaidZ ist für VMs eh weniger geeignet.
Dann eher größere SSDs im Mirror.
Wenn du eh einen Mirror fährst, kannst du dir auch die extra SSDs sparen und einfach nur 2 schnelle SSDs konfigurieren.

Ungefähr so etwas: Beispiel
Ok, Danke dir.
Mein Beispiel lag jetzt ohne SSD bei 2.3k€ - dein Link waren 22k€ ich glaub da lief was falsch ;)

Warum kein RaidZ?

Könnte nach Nachfrage bis 3.5k€ gehen.
Dann lieber 2* 4TB als Mirror - dachte Raid5/Z ist halt besser, falls man doch mal vergrößern möchte.

Sprich Proxmox kann man dann auch auf den 4TB Mirror installieren und der Rest ist für die VMs nutzbar...
 
Ok, Danke dir.
Mein Beispiel lag jetzt ohne SSD bei 2.3k€ - dein Link waren 22k€ ich glaub da lief was falsch ;)
Da hat sich jemand einen Spaß erlaubt und dicke CPU, mehr RAM und so weiter rein konfiguriert.
Warum kein RaidZ?
Aus Performancegründen. RaidZ am besten nicht ohne Special Device und wenn du noch 2 kleine NVMe als Special Mirror dazu konfigurierst, wird das komplexer und teurer.
Könnte nach Nachfrage bis 3.5k€ gehen.
Dann lieber 2* 4TB als Mirror - dachte Raid5/Z ist halt besser, falls man doch mal vergrößern möchte.
Eben nicht, bei RaidZ muss t du weitere RaidZ vdev hinzufügen, also jedes mal mind, 3 SSDs. Bei Mirror fügst du immer 2 SSDs hinzu.
Erweitern geht da identisch.
Sprich Proxmox kann man dann auch auf den 4TB Mirror installieren und der Rest ist für die VMs nutzbar...
Ja
 
  • Like
Reactions: Johannes S
Warum kein RaidZ?
Darum: https://forum.proxmox.com/threads/fabu-can-i-use-zfs-raidz-for-my-vms.159923/
Generell zu ZFS:
 
  • Like
Reactions: UdoB
Ich steig mal hier ein, weil ich auch grade am Forschen bin bezgl Config des internen Storage eines zu dimensionierenden Standalone-PVEs.

So ganz kapiert hab ich das jetzt noch nicht :)

Wenn ich, sagen wir, 8 interne SATA-SSDs an einem simplen Controller habe, was mach ich jetzt am Besten?
Natürlich will ich Redundanz UND Speed ;-) .. in einem ausgewogenen Verhältnis halt.

In https://forum.proxmox.com/threads/fabu-can-i-use-zfs-raidz-for-my-vms.159923/post-734639 lese ich unter (4) "capacity 2 drives", das kann ich natürlich schwer argumentieren beim Kunden.

Ich forsche gerne noch weiter im Archiv, bin aber ad hoc mehr verwirrt als dass ich klareres Verständnis finde ...

danke für Links oder "explain like I am five" :-P
 
Ich steig mal hier ein, weil ich auch grade am Forschen bin bezgl Config des internen Storage eines zu dimensionierenden Standalone-PVEs.

So ganz kapiert hab ich das jetzt noch nicht :)

Wenn ich, sagen wir, 8 interne SATA-SSDs an einem simplen Controller habe, was mach ich jetzt am Besten?
Natürlich will ich Redundanz UND Speed ;-) .. in einem ausgewogenen Verhältnis halt.

In https://forum.proxmox.com/threads/fabu-can-i-use-zfs-raidz-for-my-vms.159923/post-734639 lese ich unter (4) "capacity 2 drives", das kann ich natürlich schwer argumentieren beim Kunden.

Ich forsche gerne noch weiter im Archiv, bin aber ad hoc mehr verwirrt als dass ich klareres Verständnis finde ...

danke für Links oder "explain like I am five" :-P
Gib mal biite mehr Infos was du erreichen willst.
Du schreibst einmal simpler SATA Controller und einmal für Kunden.
Soll das was vernünftiges sein was man im Geschäftsumfeld nutzt oder einfache Spielerei?
Wenn für Unternehmenseinsatz mal eine ungefähre Größe/Anforderung an so einen PVE.
 
  • Like
Reactions: IsThisThingOn
Warum kein RaidZ?
Viel wichtiger als Performance, finde ich die Tatsache, dass es in vielen Fällen NICHT zu wesentlich mehr Speicher führt als ein mirror.

Siehe Speichertabelle hier:
https://github.com/jameskimmel/opinions_about_tech_stuff/blob/main/ZFS/The problem with RAIDZ.md#volblocksize-16k

oder bisschen komplizierter, weil du dich mit Sektorgrössen auskennen musst:
https://docs.google.com/spreadsheet...MQVrF1uS28/edit?gid=1576424058#gid=1576424058

Beide sagen aber das Gleiche.

RAIDZ1 ist ziemlich heikel. Mal angenommen die SSD 990Pro hat ein Firmware bug und du nutzt zwei oder drei davon, könntest du den kompletten pool verlieren. Oder eine disk fällt aus und du ersetzt versehentlich die falsche Disk, wird es gleich kompliziert.

Ich würde eher ein 3way mirror verwenden und dafür keine separaten Disks für Proxmox.
Sprich, ein einziger 3 way mirror pool, auf dem Proxmox und die VMs liegen.

Die Platten müssen ja nicht von Dell sein, "normale" Samsung oder WD Server SSDs bekommst du heutzutage fast geschenkt. Erst wenn es wirklich extrem schnell gehen muss, wird es teuer. ARC hilft auch mit die reads ordentlich zu beschleunigen, falls du RAM übrig hast.
 
  • Like
Reactions: Johannes S
Gib mal biite mehr Infos was du erreichen willst.
Du schreibst einmal simpler SATA Controller und einmal für Kunden.
Soll das was vernünftiges sein was man im Geschäftsumfeld nutzt oder einfache Spielerei?
Wenn für Unternehmenseinsatz mal eine ungefähre Größe/Anforderung an so einen PVE.

Das mit dem SATA war etwas unbedacht, ja. Ich hatte nur an "non-RAID" gedacht dabei, wegen ZFS etc / Besser SAS-SSDs?

Der Kunde will 2 Uralt-Server (Xen, ESXi) ablösen und in einem ersten Step alle VMs auf einen einzelnen PVE migrieren.
2. Knoten und so dann in einer späteren Phase.

Dh. ich brauche in etwa 8-10 TB nutzbaren Speicherplatz, intern in einem 2HE-Gehäuse. Momentan neige ich zu einem gebrauchten HPE DL380 Gen10.
Ja, der Kunde ist ein Unternehmen, dennoch Sparefroh ... es wird ein geprüfter gebrauchter Server werden.

Es geht um den ersten Schritt weg von der Uralt-HW und -SW hin zu Proxmox, später dann neuere Hardware und irgendwann HA (ich sehe das so, der Kunde vielleicht noch nicht so ganz ;-) ).

Wir reden von etwa 10-15 VMs, Tendenz fallend, weil da auch was wegfällt demnächst.

Ich hätte auch kein großes Problem mit HW-RAID, LVM draufgesetzt und damit arbeiten ... vielleicht ja sogar vernünftiger auf alter Hardware?

Die gebrauchten Kisten kommen ja eher mit HW-RAID-Controllern, da will ich von Beginn an aufpassen, nicht mit einer falschen Config zu starten.

danke, Stefan
 
Dh. ich brauche in etwa 8-10 TB nutzbaren Speicherplatz,
wait what?
erst waren wir bei einer 1TB Windows Server VM und jetzt bei 10TB?
Sind das files oder VM disks? Files sind generell auf einem dataset besser aufgehoben (weil flexibler record size) das ist aber nochmals eine ganz andere Baustelle.

Warum soll denn eigentlich überhaupt umgezogen werden?
Um von den vmware Lizenzen wegzukommen?
Auf was läuft es jetzt?
Was ist daran gut?
Was ist daran nicht gut und sollte auf dem neuen System besser gehen?
 
  • Like
Reactions: Johannes S
wait what?
erst waren wir bei einer 1TB Windows Server VM und jetzt bei 10TB?
Sind das files oder VM disks? Files sind generell auf einem dataset besser aufgehoben (weil flexibler record size) das ist aber nochmals eine ganz andere Baustelle.

Warum soll denn eigentlich überhaupt umgezogen werden?
Um von den vmware Lizenzen wegzukommen?
Auf was läuft es jetzt?
Was ist daran gut?
Was ist daran nicht gut und sollte auf dem neuen System besser gehen?

Sorry, ich hätte meine Anfrage extra stellen sollen. My fault.
 
Das mit dem SATA war etwas unbedacht, ja. Ich hatte nur an "non-RAID" gedacht dabei, wegen ZFS etc / Besser SAS-SSDs?

Der Kunde will 2 Uralt-Server (Xen, ESXi) ablösen und in einem ersten Step alle VMs auf einen einzelnen PVE migrieren.
2. Knoten und so dann in einer späteren Phase.

Dh. ich brauche in etwa 8-10 TB nutzbaren Speicherplatz, intern in einem 2HE-Gehäuse. Momentan neige ich zu einem gebrauchten HPE DL380 Gen10.
Ja, der Kunde ist ein Unternehmen, dennoch Sparefroh ... es wird ein geprüfter gebrauchter Server werden.

Es geht um den ersten Schritt weg von der Uralt-HW und -SW hin zu Proxmox, später dann neuere Hardware und irgendwann HA (ich sehe das so, der Kunde vielleicht noch nicht so ganz ;-) ).

Wir reden von etwa 10-15 VMs, Tendenz fallend, weil da auch was wegfällt demnächst.

Ich hätte auch kein großes Problem mit HW-RAID, LVM draufgesetzt und damit arbeiten ... vielleicht ja sogar vernünftiger auf alter Hardware?

Die gebrauchten Kisten kommen ja eher mit HW-RAID-Controllern, da will ich von Beginn an aufpassen, nicht mit einer falschen Config zu starten.

danke, Stefan
Naja wenn du so einen gebrauchten wirklich günstig bekommst, dann ist das OK. Oft wird da RAM oder andere Komponenten ausgebaut, welche du teuer nachkaufen kannst.
Wenn du einen mit einem Schwung 10k SAS HDDs bekommst, ist HWRaid das richtige. Bei vielen SATA SSDs holst du mit einem RAID Controller auch noch etwas mehr raus.
Möchtest du lieber einen kleinen sparsamen neuen Server, dann eher NVMe, da die derzeit günstiger sind als SATA und SAS.
Achte bei dem gebrauchten auch auf Netzwerkkarten. 10 GBit sollte schon drin sein.
 
Ich steig mal hier ein, weil ich auch grade am Forschen bin bezgl Config des internen Storage eines zu dimensionierenden Standalone-PVEs.

So ganz kapiert hab ich das jetzt noch nicht :)

Wenn ich, sagen wir, 8 interne SATA-SSDs an einem simplen Controller habe, was mach ich jetzt am Besten?
Natürlich will ich Redundanz UND Speed ;-) .. in einem ausgewogenen Verhältnis halt.

In https://forum.proxmox.com/threads/fabu-can-i-use-zfs-raidz-for-my-vms.159923/post-734639 lese ich unter (4) "capacity 2 drives", das kann ich natürlich schwer argumentieren beim Kunden.

Ich forsche gerne noch weiter im Archiv, bin aber ad hoc mehr verwirrt als dass ich klareres Verständnis finde ...

danke für Links oder "explain like I am five" :-P
Stelle zwei Hosts hin. Beide mit 8TB-NVMe. Ganz ohne Redundanzgeraffel. I.d.R. fällt nämlich das einzige nichtredundante Teil aus. Das kostet eher 1.000 als 2.000@ pro Host. Du sicherst A auf B und umgekehrt um schnell reagieren zu können. Ohne mit der Bude irgendwas zu tun zu zu haben nochmal ein Link, der sogar erweiterbar ist:
https://www.bee-link.com/products/beelink-me-mini-n150
 
Stelle zwei Hosts hin. Beide mit 8TB-NVMe. Ganz ohne Redundanzgeraffel. I.d.R. fällt nämlich das einzige nichtredundante Teil aus. Das kostet eher 1.000 als 2.000@ pro Host. Du sicherst A auf B und umgekehrt um schnell reagieren zu können. Ohne mit der Bude irgendwas zu tun zu zu haben nochmal ein Link, der sogar erweiterbar ist:
https://www.bee-link.com/products/beelink-me-mini-n150
Damit möchte aber keiner 15 Server laufen lassen. ;)
 
  • Like
Reactions: Johannes S
Damit möchte aber keiner 15 Server laufen lassen. ;)
Der Fragesteller sprach von von zwei Servern, die er auf einen eindampfen möchte. Ich habe nur gesagt, wie er das ob der gewünschten Redundanz kostengünstig hinbekommen kann.
 
Der Fragesteller sprach von von zwei Servern, die er auf einen eindampfen möchte. Ich habe nur gesagt, wie er das ob der gewünschten Redundanz kostengünstig hinbekommen kann.
Naja er spricht von 10-15 VMs, Tendenz fallend. Das bedeutet erst einmal 15 VMs planen und irgendwann sind es halt nur noch 10 oder 8.
Er möchte das im Unternehmensumfeld nutzen, daher würde ichschon etwas mit ECC RAM und vernünftigen I/O nehmen.
Man könnte ja auch einen kleinen Server mit XeonE oder Epyc 4004 nehmen, aber ein N150 ist garantiert zu klein.
 
  • Like
Reactions: Johannes S
Naja er spricht von 10-15 VMs, Tendenz fallend. Das bedeutet erst einmal 15 VMs planen und irgendwann sind es halt nur noch 10 oder 8.
Er möchte das im Unternehmensumfeld nutzen, daher würde ichschon etwas mit ECC RAM und vernünftigen I/O nehmen.
Man könnte ja auch einen kleinen Server mit XeonE oder Epyc 4004 nehmen, aber ein N150 ist garantiert zu klein.
15 VMs fiedel ich auf eine 2k€ Kiste ohne Schluckauf ab. Da muss kein Schwein dran rumplanen. Sogar ganz ohne GeheimECC.
I/O-Last ist dank NVMe inzwischen auch Geschichte.
Wenn ich Last verteilen möchte, dann gibt es eben zwei solcher Kisten. Erhöht nebenbei die Redundanz.
Das du Opa-Xeons ausgräbst, wundert mich nicht.
Ob ein N150 reicht habe ich bisher aus Angst und Bauchgefühl auch noch nicht probiert.
Die von mir verlinkte Gurke werde ich jedenfalls mal testen.
Anders als von dir verlinkte Geräte liegt das wesentlich unter 3.5k€.