Hardware Frage

15 VMs fiedel ich auf eine 2k€ Kiste ohne Schluckauf ab. Da muss kein Schwein dran rumplanen. Sogar ganz ohne GeheimECC.
Was soll an ECC geheim sein? Fehlerkorrektur ist bei Datenbanken eigentlich ein Muss.
I/O-Last ist dank NVMe inzwischen auch Geschichte.
Wenn ich Last verteilen möchte, dann gibt es eben zwei solcher Kisten. Erhöht nebenbei die Redundanz.
Das du Opa-Xeons ausgräbst, wundert mich nicht.
Ich bin kein Fan von Xeon, aber die alten Xeons kommen eh nicht in die Tüte. Disk I/O ist nicht alles, gerade wenn man richtige Server betreibt, braucht man auch CPU Power. Von CPU Latenzen wegen Warteschlangen und so, hast du bestimmt noch nichts gehört, aber das ist das größte Performanceproblem bei 80% aller vSphere Cluster, weil das ganz viele Leute nicht auf dem Schirm haben und auch nie danach schauen.
Wenn man ein Setup vernünftig planen kann, sollte man das auch tun. Zuhause habe ich auch Atom 8 Kerner, aber das ist alles Spielwiese und keine Firma drauf am arbeiten.
Ob ein N150 reicht habe ich bisher aus Angst und Bauchgefühl auch noch nicht probiert.
Die von mir verlinkte Gurke werde ich jedenfalls mal testen.
Anders als von dir verlinkte Geräte liegt das wesentlich unter 3.5k€.
 
Was soll an ECC geheim sein? Fehlerkorrektur ist bei Datenbanken eigentlich ein Muss.

Ich bin kein Fan von Xeon, aber die alten Xeons kommen eh nicht in die Tüte. Disk I/O ist nicht alles, gerade wenn man richtige Server betreibt, braucht man auch CPU Power. Von CPU Latenzen wegen Warteschlangen und so, hast du bestimmt noch nichts gehört, aber das ist das größte Performanceproblem bei 80% aller vSphere Cluster, weil das ganz viele Leute nicht auf dem Schirm haben und auch nie danach schauen.
Wenn man ein Setup vernünftig planen kann, sollte man das auch tun. Zuhause habe ich auch Atom 8 Kerner, aber das ist alles Spielwiese und keine Firma drauf am arbeiten.
Zuallererst nervt mich deine oberlehrerhafte Attitüde.
"Richtige" Server betreibe ich dann seit Dekaden nicht.
Von Warteschlangen, die durch CPU-Lahmarschigkeiten verursacht werden auch noch nicht.
Es ging hier nie um einen vSphere-Cluster, sondern um zwei BrotundButter-Server.
Wenn man vernünftig plant, fängt man klein an. Wenn man dann feststellt, dass es nicht reicht, muss man Kohle hinterherwerfen.
Tut weniger weh als eine "Lösung", die 50k€ Einstieg kostet und nicht funktioniert oder völlig überdimensioniert ist.
Du scheinst überrentet.
 
Last edited:
Zuallererst nervt mich deine oberlehrerhafte Attitüde.
Ja du triggerst mich mit deinen Aussagen ja perfekt. Mir scheint es immer so, als wölltest du genau solche Antworten herausfordern.
"Richtige" Server betreibe ich dann seit Dekaden nicht.
Von Warteschlangen, die durch CPU-Lahmarschigkeiten verursacht werden auch noch nicht.
Dann lese dich mal in das Thema Virtualisierung ein. Ich mache jetzt Virtualisierung seit 2006, habe aber auch erst 2014 das erste mal etwas über die CPU Warteschlangen und wie so ein CPU Scheduler arbeitet gelernt. Inzwischen ist das Wissen darüber bereits breit im Internet verfügbar.
Es ging hier nie um einen vSphere-Cluster, sondern um zwei BrotundButter-Server.
Ich wollte nur verdeutlichen, dass dieses Problem auch im großen Umfeld mit dicken Servern und großen Clustern auftritt.
Wenn man vernünftig plant, fängt man klein an. Wenn man dann feststellt, dass es nicht reicht, muss man Kohle hinterherwerfen.
Genau so macht man es nicht, klein kaufen und dann wegwerfen müssen weil zu klein und nicht erweiterbar, ist eher schlecht.
Lieber grleich richtig planen und am besten immer eine kleine Reserve, welche man hier weglassen könnte, wenn die VMs weniger werden.
Tut weniger weh als eine "Lösung", die 50k€ Einstieg kostet und nicht funktioniert oder völlig überdimensioniert ist.
Man muss ja keine 2k Lösung mit einer 50k bewerfen, aber eventuell passt die 4k Lösung direkt besser als die 2k Lösung.
Du scheinst überrentet.
Also das Wort kennt nicht mal eine KI. ;)
 
Damit möchte aber keiner 15 Server laufen lassen. ;)
Damit möchte ich nicht einen Server laufen lassen ;)
Ob ein N150 reicht habe ich bisher aus Angst und Bauchgefühl auch noch nicht probiert.
Die CPU Performance würde eventuell sogar ausreichen. Wie du bereits richtig gesagt hast, bei vielen Server ist IO der Flaschenhals und der wurde dank SSD weniger dramatisch. Was ich bei kleinen Unternehmen häufig sehe sind idlelnde Windows Server, mit schnarchlangsamen RAID write speeds, was aber egal mit Ausnahme von Update egal ist, da eh nur gelesen wird.
Dagegen ist jeder Consumer SSD mirror ein Upgrade :)
Nöö, das Problem ist eher die Kompatibilität der Hardware, fehlendes ECC, fehlendes IPMI usw.
 
Last edited:
Naja wenn du so einen gebrauchten wirklich günstig bekommst, dann ist das OK. Oft wird da RAM oder andere Komponenten ausgebaut, welche du teuer nachkaufen kannst.
Wenn du einen mit einem Schwung 10k SAS HDDs bekommst, ist HWRaid das richtige. Bei vielen SATA SSDs holst du mit einem RAID Controller auch noch etwas mehr raus.
Möchtest du lieber einen kleinen sparsamen neuen Server, dann eher NVMe, da die derzeit günstiger sind als SATA und SAS.
Achte bei dem gebrauchten auch auf Netzwerkkarten. 10 GBit sollte schon drin sein.

Meine Frage ist: soll ich unbedingt ZFS anstreben, inkl. Thematik mit Controllern und Kabeln etc / oder ist es für so eine Kiste auch völlig akzeptabel, auf die HW-RAIDs LVM zu setzen etc? (ich betreibe schon viele Jahre diverse VMs auf diversen non-proxmox-Servern mit solchen Setups ...)

Ich denke, das wäre auch OK und würde es mir erleichtern, gebrauchte, geprüfte Hardware "von der Stange" zu kaufen, ohne jetzt mit extra Controllern anzufangen und Kabel zu recherchieren (es geht ja zB auch um die Cages und wie die verkabelt sind etc etc).

Schon klar, ZFS kann mehr als HWRAID+LVM+ext4 ... verstehe ich natürlich. Aktuell sieht es für mich aber so aus, dass mir ZFS auf so einem HPE-Server etwas mehr Kopfzerbrechen macht, weil ich mit den vorhandenen RAID-Controllern nix anfange. Aber vielleicht übersehe ich ja was, deswegen meine Fragen hier.

10k SAS HDDs würde ich dazu bekommen, ja. Ist ja kein Geheimnis, ich schaue aktuell bei servershop24 (das ist ja noch keine Werbung, denke ich ;-) ).
Die bieten auch SAS-SSDs ... je nach Budget kriegt man da schon was Flottes zusammen, denke ich.

danke Euch
 
Frage 20 Köche und du hast 30 Rezepte ...

Meine Frage ist: soll ich unbedingt ZFS anstreben, inkl. Thematik mit Controllern und Kabeln etc / oder ist es für so eine Kiste auch völlig akzeptabel, auf die HW-RAIDs LVM zu setzen etc? (ich betreibe schon viele Jahre diverse VMs auf diversen non-proxmox-Servern mit solchen Setups ...)
Schon klar, ZFS kann mehr als HWRAID+LVM+ext4 ... verstehe ich natürlich. Aktuell sieht es für mich aber so aus, dass mir ZFS auf so einem HPE-Server etwas mehr Kopfzerbrechen macht, weil ich mit den vorhandenen RAID-Controllern nix anfange. Aber vielleicht übersehe ich ja was, deswegen meine Fragen hier.
Wenn du mit deinen eigenen Erfahrungen und bisherigen Randbedingungen klar kommst, würde ich davon abraten etwas bei einem Kunden Produktiv einzusetzen, das du selber nicht längere Zeit eingesetzt und auf Herz und Nieren getestet hast - nur weil es aktuell vielleicht "HIPP" ist.
Wenn ZFS eine Feature ist, das du mit links händelst erübrigt sich die Frage danach.

Aus meiner Sicht ist HWRAID mit dem richtigen Controllern und einer guten Backplane eine feine Sache (Plug&Play) wenn's mal knirscht! Und ansonsten soll das einfach laufen!

10k SAS HDDs würde ich dazu bekommen
Hier würde ich aktuell eher in die Richtung Enterprise SSD denken und auch gehen. Abhängig auch von den zu speichernden Daten und VMs. Betrachtet rein auf Stromverbrauch, Abwärme (Kühlung) und I/O. Selbst wenn das in einem RZ läuft!

gebrauchte, geprüfte Hardware "von der Stange"
Musst du selbst wissen - mir wäre hier zum einen der Support seitens des Hersteller deutlich wichtiger als ein "paar" gesparte Euro und vor allem aktuellere Hardware, die nicht schon etliche Kilometer hinter sich hat. Die Garantie die du dazukaufen kannst ist auch preislich recht ordentlich, auf den ersten Blick.
Außerdem kann der Kunde die Kosten eh abschreiben - sparen am falschen Ende wird teuer.
 
Last edited:
  • Like
Reactions: news and Johannes S