Bitte um Beratung: Wechsel von EXSi zu Promox und einige Fragen zu HW und Topologie (Speicher-Aufbau)

brightrgb

Member
Dec 26, 2021
32
0
6
37
Hallo,
kurz etwas zu meiner Vorgeschichte.
Ich habe schon etliche Jahre einen EXSi-Server am laufen.
Darauf befinden sind diverse VMs inkl. meiner Storage-VM. Die für mich wichtigsten VMs sind.

  • Storrage VM:
    TrueNAS mit Raid-Z2 Pool

  • Linux-VMs:
    1x Mint
    1x Ubuntu

  • Win10-VM:
    1xWork
    1xTest

  • pfsense-VM:
    Firewall
Da ich eigentlich so nach und nach ins OpenSource Lager will, möchte ich meinen neuen/gebrauchten Backup-Server gerne mit Proxmox aufbauen und bei Erfolg auch den Hauptserver auf Proxmox umstellen.

Die HW für den geplanten Proxmox-Server wäre:
  • Intel Xeon E3-1220 v5
  • ASUS P10S-E/4L
  • 32GB ECC RAM
Da der Server im schlimmsten Fall auch mal nicht verfügbar sein darf, hätte ich an folgenden Aufbau gedacht.
  1. Proxmox Installation:
    1TB SATA-HDD (weil Proxmox gemäß diversen Beiträgen in Foren jede günstige SSD schnell verschleisst)

  2. VM-Speicher:
    2x1 TB M.2 PCIe 3.0 x4 WD Blue SN570 als ZFS-Mirror (durch Proxmox verwaltet)

  3. Storage:
    6 x 12 TB HDD an HBA und Passthrough an TrueNAS-VM (hier dann ein ZFS-Z2)

Meine größten Fragen sind aktuell:
  1. Macht es Sinn für den VM-Speicher einen ZFS-Mirror zu nutzen oder kann ich ein Backup auch leicht auf meiner Storage-VM regelmäßig ablegen und mir eine SSD und einen M.2 Steckplatz sparen?

  2. Ist es sinnvoll die 6 Festplatten für das Storage per Passthrough an die TrueNAS VM durchzureichen oder sollte ich auch hier den Pool durch Proxmox verwalten lassen und nur die Netzwerk-Freigaben in TrueNAS erledigen? Dann stellt sich mir aber die Frage, wie ich wieder an Snapshots komme, wenn ich die nicht in TrueNAS aktivieren kann, da TrueNAS keinen ZFS-Pool sondern nur ein Dataset sieht?

  3. Ich möchte den E3-1220 v5 noch mindestens gegen einen E3-1230 v5 aufrüsten. Macht es für die Windows und Linux VMs Sinn, dass ich eine CPU mit iGPU kaufe um die GPU den VMs zuzuweisen? Kann ich in Proxmox eine iGPU in der CPU an mehrere VMs durchreichen oder nur an eine?
Falls hier jemand ebenfalls aus dem EXSi Lager kommt und der Meinung ist, dass für meinen Anwendungsfall Proxmox nicht wirklich das richtige ist und ich bei EXSi bleiben sollte, dann bitte einfach direkt sagen! :)
 
Wofür wird `2. VM-Speicher` genau verwendet werden?

Wenn es unbedingt ein TrueNAS sein soll, würde ich empfehlen den ganzen HBA durchzureichen, sofern die Root Disk am Mainboard angesteckt werden kann. ZFS will Zugriff auf die Disken so direkt wie möglich. Das gilt auch für Ceph.

Eine GPU die nicht speziell dafür gemacht ist, kann per Passthrough nur einer VM zugewiesen werden. Also die iGPU wäre nur in einer VM verfügbar und damit auch nicht mehr am Host, falls dort eine gebraucht werden sollte.
 
ZFS zerschießt dir vorallem schnell die SSDs wenn du VMs drauf laufen lässt da diese dann ausschließlich winzige writes machen womit ZFS und SSDs im allgemeinen nicht gut umgehen können. PVE selbst (also ohne VMs drauf) schreibt vielleicht 30GB am Tag und dann halten auch kleine 120/256GB Consumer SSDs Jahre. Das Problem bei Consumer SSDs als Systemplatten ist da eher das diese keine Powerloss Protection haben und du dir dann beim Stromausfall/Hardreset den ganzen Pool zerschieẞen kannst wo dir dann auch ein Mirror nichts hilft wenn beide SSDs gleichzeitig ihre ungeschriebenen Daten im SSD-interen RAM-Cache verlieren (guck mal hier im Forum wieviele Leute mit Consumer SSDs fragen, warum PVE nach einem Stromausfall nicht mehr booten kann). Eine enterprise SSD kann auch noch ein paar Sekunden ohne Strom laufen und sichert dann panisch den flüchtigen RAM-Cache auf den nuchtfluchtigen NAND. Und dann sind Enterprise SSDs gerne mal um 1 oder 2 Größenordnungen schneller was Sync Writes angeht und können auch gerne mal 30fach so viele Writes vertragen.
Also gerade für den VM Storage sind enterprise SSDs (was die WD Blues nicht sind) empfehlenswert.
 
Last edited:
  • Like
Reactions: mira
Wofür wird `2. VM-Speicher` genau verwendet werden?
Das hätte für die VMs von Proxmox werden sollen!

Also gerade für den VM Storage sind enterprise SSDs (was die WD Blues nicht sind) empfehlenswert.
Vielen Dank. Das war mir nicht klar! Ich habe immer nur raus gelesen, dass PVE die SSDs kaputt macht nicht die VMs.
Was du mir hier aber erklärt hast, leuchtet mir ein. Vielen lieben Dank. Dann kann ich das mal so begraben. - Jedenfalls so wie ich es mir gedacht habe!

Vielleicht darf ich eine Frage für meine HW in den Raum stellen.

Zur Verfügung stehen:
  • 8 x SATA3 (Intel C236)
  • 2 x M.2 (Intel C236)
  • HBA (4-8 Port) wäre ich bereit noch anzuschaffen
Wie würdet ihr es speichertechnisch mit PVE aufbauen, wenn ihr folgendes braucht?
  • PVE-Installation
  • Schnellen SSD-Speicher für VMs
  • Storage (min. 6 HDDs, min ZFS-Z2)
 
HDDs für TrueNAS definitiv über durchgereichten HBA (was man gebraucht über eine zum LSI 9211-8i HBA mit IT-Mode crossgeflashte Dell/Lenovo/HP Raid-Karte schon ab 35€ + 10€ je SFF8087-zu-4x-SATA-Kabel bekommt und wo dann 4 SATA SSDs oder 8 SATA HDDs mit voller Bandbreite dranpassen würden).
System SSDs sind angenehmer auf einem eigenständigen Mirror aber zur Not kann man auch einen Mirror für System+VMs nehmen, da Proxmox selbst gut mit 16-32GB auskommen sollte. Ist halt nur nerviger wenn du mal was am VM Storage machen willst, da du so den VM Storage nicht zerstören und neubauen kannst ohne auch dein PVE neu installieren und einrichten zu müssen.

Für VMs willst du vorallem IOPS und da würde schon ein NVMe Mirror am meisten Sinn machen.

Die guten NVMe SSDs sind übrigens U.2 oder PCIe Karten und nicht M.2, da M.2 einfach zu wenig Oberfläche hat um guten NAND mit genug Reservezellen oder all die Kapazitoren für die Powerloss Protection unterbringen zu können (jedenfalls wenn du mehr als wenige hundert GB Kapazität haben willst). Je kompakter die NAND-Chips sind und je weniger NAND-Chips als Reserve verbaut sind, desto schneller schreibt sich die SSD kaputt. Bei einer robusten SSD kann es z.B. durchaus sein, dass diese mit 1 TB nutzbarer Kapazität verkauft wird aber 1.7TB NAND Speicher verbaut sind. Fällt dann eine von den NAND-Zellen der nutzbaren 1TB aus wird diese durch eine Reserve-NAND-Zelle der unnutzbaren 0.7TB ersetzt. Eine billige 1TB SSD hat dann vielleicht nur 0,1TB als Reserve verbaut und gibt entsprechend früher den Geist auf.
Und dann ist nicht NAND gleich NAND. Es gibt super duper schnellen und super duper haltbaren SLC NAND, schnellen und haltbaren MLC NAND, weniger schnellen und weniger haltbaren TLC NAND und langsamen und sehr schnell abnutzenden QLC NAND. Bei der Kapazität ist es aber genau anders herum. Für den gleichen Preis und bei gleicher Chipfläche bekommst du bei QLC NAND sehr viel Kapazität, über TLC und MLC bis hin zu SLC NAND wo du nur minimale Kapazität für die gleichen Produktionskosten auf gleichem Raum untergebracht bekommst. Sprich, je hochwertiger der NAND desto mehr Chips muss man für die gleiche Kapazität verbauen und desto mehr Raum brauchen die Chips und desto teurer wird die SSD.
Da kann eine Enterprise SSD gerne mal das 3- oder 10-fache kosten aber wenn die dann 10 oder 30 mal so viele geschriebene TBs an Daten überlebt, dann kann eine erstmal teure SSD am Ende doch deutlich güstiger sein, wenn sie dann z.B. 5 statt nur 1 Jahr hält...vorausgesetzt natürlich du schreibst auch genug um die überhaupt an ihr Lebensende zu bringen. Aber das kann man wegen der Write Amplification schnell unterschätzen. Bei mir laufen um die 20-30 Gäste auf dem Heimserver welche dann im Idle im Schnitt rund 900GB am Tag auf die SSDs schreiben. Die Gäste schreiben da eigentlich nur so 45GB am Tag (sind fast nur Logs und Metrics) aber wegen der Write Amplification von Faktor 20 werden die 45GB an Writes in den Gästen dann zu 900GB Writes auf die SSDs.

U.2 SSDs kommen meist im 2.5"-Formfaktor (wie SATA SSDs) und werden über ein SFF Kabel angeschlossen. U.2 kann man aber auch am M.2 Slot betreiben, wenn man sich ein M.2-über-SFF-Kabel-zu-U.2-Adapter-Set kauft. Sowas z.B.:

u.2 to m.2.jpg


Pass aber mit den beiden M.2 slots auf. Volle PCIe 4x Bandbreite kannst du meist nur nutzen, wenn der M.2 Slot direkt mit der CPU verbunden ist. Oft hängt aber nur einer der beiden M.2 Slots direkt an der CPU und der andere hängt am Chipsatz und dann ist schnell die Verbindung zwischen Chipsatz und CPU der Flaschenhals, da über diese Verbindung dann nicht nur der M.2 slot läuft, sondern auch alle onboard SATA-Ports, alle USB-Ports, alle NICs, manchmal noch ein paar PCIe Slots etc.
Hättest du dann einen solchen Fall, mit einem schnellen und einem lahmen M.2 Slot, wären beide NVMe SSDs gedrosselt, da im Mirror ja immer die schnelle NVMe SSD auf die langsame warten müsste. Musst du also mal auf das Blockdiagramm von deinem Mainboard gucken, da sieht man eigentlich welche Slots/Ports/Onboard-Geräte an der CPU oder am Chipsatz hängen.
 
Last edited:
  • Like
Reactions: proxifoxi
Sind bereits Disken vorhanden, oder muss alles erst gekauft werden?
Je nachdem was das Mainboard unterstützt, gäbe es auch Datacenter NVMes im M.2 Format, jedoch länger als einige Boards unterstützen:
https://geizhals.at/?cat=hdssd&xf=1...s=2236&fcols=4930&fcols=3313&sort=p&bl1_id=30

SATA SSDs könnten immerhin am Mainboard angeschlossen werden, da gäbe es mehr Auswahl: https://geizhals.at/?cat=hdssd&v=e&...0~4643_Power-Loss+Protection~4832_1~4930_1000

Ich vermute du kommst aus Deutschland, dann müsstest du auf deutsche Händler wechseln, um zu sehen was dort so vorhanden ist.

Habe die Suche auf Intel, Micron und Samsung eingegrenzt, da diese den Großteil der Datacenter SSDs ausmachen. Eventuell bieten andere Hersteller auch gute SSDs an, müsste man sich noch extra informieren.
 
Sind bereits Disken vorhanden, oder muss alles erst gekauft werden?
Nur die HDDs für den Z2-Pool habe ich schon.

Der Rest muss gekauft werden. Vielen Dank für deine Vorschläge. Die sind leider nicht gerade billig, aber schon klar, dass Qualität ihren Preis hat!
Ich bräuchte halt idealerer weise:

2 x kleine SSD für PVE (128 GB werden z.B. für PVE noch wahrscheinlich Jahre ausreichen)
2 x größere SSD für die VMs (denke so 512 GB rum würden mir reichen)

Macht es ggf. Sinn, dass ich mich auch auf dem Gebrauchtmarkt umsehe?
Oder ist das eher nicht zielführend und am Ende kaufe ich für auch viel Geld verschlissene HW?
 
Du kannst natürlich auch billigere kaufen. Kann nur sein, dass die Performance entsprechend schlecht ist auf Dauer, vor allem wenn der Cache voll ist. Hier auch unbedingt darauf achten keine QLC zu kaufen! @aaron hat vor kurzem die Samsung QVO gebenchmarked und man sah, dass sobald der Cache voll war, die Performance extrem eingebrochen ist.

Die SSDs nützen sich auch entsprechend schneller ab, aber wenn es sich vorerst nur um ein Testsystem handelt, reichen wahrscheinlich günstigere auch eine Zeit lang aus.
 
Nur die HDDs für den Z2-Pool habe ich schon.

Der Rest muss gekauft werden. Vielen Dank für deine Vorschläge. Die sind leider nicht gerade billig, aber schon klar, dass Qualität ihren Preis hat!
Ich bräuchte halt idealerer weise:

2 x kleine SSD für PVE (128 GB werden z.B. für PVE noch wahrscheinlich Jahre ausreichen)
2 x größere SSD für die VMs (denke so 512 GB rum würden mir reichen)

Macht es ggf. Sinn, dass ich mich auch auf dem Gebrauchtmarkt umsehe?
Oder ist das eher nicht zielführend und am Ende kaufe ich für auch viel Geld verschlissene HW?
Doch, klappt wunderbar. Habe mir 2x 100GB, 10x 200GB und 6x 400GB SSDs gebraucht gekauft die alle noch 96%-100% Lebenszeit über hatten. Musst du halt vor dem Kauf fragen ob dir der Verkäufer die SMART-Werte auslesen und zuschicken kann. Dann weißt du ja vor dem Kauf wie abgenutzt die SSDs sind und ob die irgendwelche Macken haben. Bisher ist da nur eine 400GB SSD von ausgefallen (vermutlich plötzlicher Tod durch Controller-Versagen oder so, Abnutzung war nur so 2%).
Ich habe da also 4600GB SSDs für rund 600€ bekommen und die haben noch gute 93541 TB TBW über. So eine neue 4TB Samsung QVO hätte da z.B. nur 1440 TB TBW. Gebraucht hast du halt nur keine Hersteller-Garantie da die meist nur für den Erstkäufer gilt und selbst refurbished vom Händler gibt es ja nur 6 Monate Gewährleistung.
 
Last edited:
Doch, klappt wunderbar. Habe mir 2x 100GB, 10x 200GB und 6x 400GB SSDs gebraucht gekauft die alle noch 96%-100% Lebenszeit über hatten.
Kannst du mir vielleicht sagen, welches Modell du bei der 100GB und der 400GB SSD einsetzt?
Ggf. kann ich so auf eBay was passendes mit guten SMART-Werten finden.
 
Bei mir sind das alles Intel S3700 oder S3710, aber man darf man nicht so wählerisch sein, außer man hat kein Problem damit auch mal Monate zu warten bis etwas zu brauchbaren Preisen online zum Verkauf steht. Am besten breit gefächert nach Intel/Samsung/Micron/... Enterprise/DC SSDs suchen und gucken was da ist.
 
Was mir ergänzen möchte:
Proxmox kann durchaus auf Consumer SATA SSDs installiert werden. Schaff dir für den Server eine kleine USV (650VA oder 1000VA) an, dann ist das mit dem Write-Cache kein Problem, wenn der Server bei z.B. 5-10min Restlaufzeit der USV dann alles runterfährt. Schützt in der Regel (je nach Modell) auch vor Überspannung und Blitzschlag.

Weiterhin wichtig: Die Standardeinstellung bei der Installation ist, dass eine SWAP Partition angelegt wird. Wenn dein RAM sich also füllt und der SWAP genutzt wird, DANN schreibt dir das SWAPing sehr schnell die SSD kaputt. Also SWAP abschalten und genug RAM einbauen. Wenn dann noch /var/log auf im RAM liegt, oder auf einem anderen Datenträger/Netzlaufwerk, oder noch besser die LOGs auf einem Logging Server wie Graylog gesammelt werden, dann sollte im Normalbetrieb ungefähr gar nichts auf der System-SSD geschrieben werden.

16GB sind etwas klein für PVE. PVE allein braucht zwar nur etwa 3-4GB, aber es sammeln sich hin und wieder alte Kernel, oder Update-Pakete im Cache. Dann wird es relativ schnell eng. 32GB sind nicht wirklich teurer.

Neben Intel, Micron und Samsung gibts noch Kioxia. Die haben verschiedene SSD Produkte für verschiedene Anwendungen und mit verschiedenen Schnittstellen im Angebot.
Und: Ja Enterprise SSDs sind teuer. Leider :(
 
Dann braucht der Graylog aber wieder Enterprise SSDs:D.

Bei mir habe ich extra einen weiteren LVM-Thin VM Storage angelegt, da Graylogs ElasticSearch-DB auf dem ZFS VM Storage bestimmt 200-300GB am Tag geschrieben hat. Graylog auf HDD hatte ich auch mal versucht aber das hat die HDDs wegen den IOPS hoffnungslos überfordert.
Auf LVM-Thin war es wegen dem deutlich geringeren Overhead dann deutlich besser.
 
Last edited:
Hmm nö:
1640866137705.png
Das kann man per VM oder Container auf ne kleine USB Platte laufen lassen. Regelmäßig Backup machen. Wenn dann die Platte mal in Eimer geht ist das kein Beinbruch. Sind ja nur Logs.
Die braucht man ja nur wenn mal was anderes nicht in Ordnung ist.
 
Also bei mir schreibt der Graylog LXC laut WebUI pausenlos mit rund 300kb/s und Zabbix nochmal mit 500kb/s. Da waren die HDDs dann schon ziemlich wegen den vielen kleinen Writes überfordert und das io delay war ziemlich hoch.
 
Last edited:
Das kann eigentlich nur daran gelegen haben, wie die HDD angebunden war.
Unser Graylog läuft auf Ceph mit HDDs und da verursacht Graylog auch nur wenige 100KB/s, und vll 20-30iops. Eine normale HDD sollte locker mit Graylog zurecht kommen. Die 308Mio Einträge sind alle aus den letzten 12Monaten... Da ist also nicht wenig los.

Wie das mit ZFS und anderen sehr overhead-lastigen Dateisystemen aussieht, kann ich nicht beurteilen, oder ob da irgendwas mit direct IO geschrieben wurde etc...
 
Neben Intel, Micron und Samsung gibts noch Kioxia. Die haben verschiedene SSD Produkte für verschiedene Anwendungen und mit verschiedenen Schnittstellen im Angebot.
Und: Ja Enterprise SSDs sind teuer. Leider :(
Danke für den Tipp mit Kioxia.
Es ist in der Tat echt schwer was billiges zu finden.
Es sind überhaupt wenig Enterprice SSDs in eBay oder eBay-Kleinanzeigen.
Entweder werden die Laufwerke von Firmenkunden nach der Laufzeit geschreddert oder ich bin auf den falschen Portalen am suchen.
Gibt es noch einschlägige Foren oder Shops wo man Enterprice-HW gebraucht zu fairen Preisen erwerben kann?
 
HDDs für TrueNAS definitiv über durchgereichten HBA (was man gebraucht über eine zum LSI 9211-8i HBA mit IT-Mode crossgeflashte Dell/Lenovo/HP Raid-Karte schon ab 35€ + 10€ je SFF8087-zu-4x-SATA-Kabel bekommt und wo dann 4 SATA SSDs oder 8 SATA HDDs mit voller Bandbreite dranpassen würden).
Kann ich da theoretisch fast jede HP, Dell, Fujitsu Raid Karte gebraucht kaufen oder muss da ein spezieller Chip drauf sitzen, dass man sie zum LSI 9211-8i flashen kann?
Hat es ggf. einen Vorteil einen originalen LSI MegaRAID SAS 9211-8i zu kaufen?

 
Kann ich da theoretisch fast jede HP, Dell, Fujitsu Raid Karte gebraucht kaufen oder muss da ein spezieller Chip drauf sitzen, dass man sie zum LSI 9211-8i flashen kann?
Hat es ggf. einen Vorteil einen originalen LSI MegaRAID SAS 9211-8i zu kaufen?

Das müssen schon ganz bestimmte Modelle sein. Originale LSI Karten sind halt teuer und gewisse Dell/HP Karten sind identisch nur mit Hersteller-Branding und abgespeckter Dell/HP Firmware und daher weniger Funktionen. Über Crossflashing bekommt man dann aber die gute LSI Firmware anstatt der Dell/HP Firmware auf die Karte und damit hat man dann wieder einen vollwertige LSI HBA aber für kleines Geld.
Musst du mal die ganzen Crossflashing-Tutorials online angucken. Da wird normalerweise angegeben welche Modelle oder gar Modell-Nummern es sein müssen.
Für HDDs reicht die 9211-8i noch locker. Bei SSDs sollte man sich vielleicht lieber einen neueren LSI HBA holen der PCIe 3.0 8x statt PCIe 2.0 8x nutzt. Weil bei 8 SATA SSDs wären sonst die acht PCIe 2.0 Lanes der Flaschenhals (PCIe 2.0 schafft nur rund 400MB/s pro Lane, SATA hätte aber gerne 550-600 MB/s). Der 9211-8i taugt also höchstens für 6x SSDs oder 8x HDDs oder 4x HDD + 4x SSD wenn man volle Bandbreite will.
Bei mir hängen da je 4x SSDs + 4x HDDs an jeder der beiden 9211-8i und das klappt soweit wunderbar.

Bei den neueren LSI HBAs mit PCIe 3.0 zahlst du dann aber auch gebraucht schon Dreistellig.
 
Last edited:
Musst du mal die ganzen Crossflashing-Tutorials online angucken. Da wird normalerweise angegeben welche Modelle oder gar Modell-Nummern es sein müssen.
Habe ich. Oft ist halt die Frage, ob die Daten wie die .sbr seriös sind .... :(
Deshalbwürde ich vielleicht doch lieber zu einem gerauchten original LSI tendieren!

Bei SSDs sollte man sich vielleicht lieber einen neueren LSI HBA holen der PCIe 3.0 8x statt PCIe 2.0 8x nutzt.
Das wären dann die Controller mit dem 3008 Chip.
Generell würde mir der 2008 Chip locker reichen. Leider ist der in ESXi 7 bereits nicht mehr unterstützt. Habe ich die Gefahr in Proxmox auch in ein paar Monaten oder kann ich mit einem 2008er noch lange Freude haben für kleines Geld?
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!