Homeuse - Enterprise SSD vs Consumer SSD vs HDD - und Fragen über Fragen

Hogan

New Member
Oct 14, 2020
20
0
1
Hallo PVE Community,

ich habe jetzt seit gut 4 Monaten eine PVE Spielwiese bei mir und möchte diese Spielwiese zum Homeserver weiterentwickeln.

Der / Die Use-Cases:

  • Openhab-Server (Basierend auf Opoenhabian @ ubuntu 20.04 x64)
    • Zugriff auf diverse USB Sticks (Bridges) - das klappt in der Spielwiese schon
  • Zway-Server ( Zwave.Me Server @ ubuntu 20.04 x64)
    • Zugriff auf diverse USB Sticks (Bridges) - das klappt in der Spielwiese schon
  • Plex-Server (VM-Os egal...) - Probiert über LXC und Windows Host, da stell ich mich aber noch etwas an ;)
    • Zugriff auf NAS Share - der Share ist noch ned da da das NAS noch nicht da ist
  • FreeNas bzw. TrueNas
    • Geplant sind hier 16 TB ZRAIDZ2 bestehend aus 6 x 4 TB HDD (angedacht waren hier WD RED)
  • evtl. mal ne Nextcloud
  • ganz unwahrscheinlich mal nen DB-Server
Der "Unterbau" der Spielwiese bzw. des Homeservers:

Supermicro X11SSL-F Intel C232 So.1151 Dual Channel DDR4 mATX Bulk

Intel Xeon E3-1225v6 4x 3.30GHz So.1151 BOX

16GB (1x 16384MB) Samsung M391A2K43BB1 DDR4-2133 DIMM CL15 Single


Der RAM wird dann auf 64 GB ausgebaut. Auch wenn der SAMSUNG RAM nur noch in der Bucht zu holen ist.
An Platten hab ich das hergenommen was grad rumlag. Und da fängt dann die Fragerei an.

Unter den gegeben User Cases würde mich eure Meinung interessieren wo welche Speicherart (gemeint Enterprise SSD, Consumer SSD oder HDD) und in welcher Konfiguration "sinnig" ist. Ich hab hier schon viel gelesen, aber ich bin in dem Zustand das ich eher verwirrt bin wie weiß was ich will.

Und ja ich will hier keinen Glaubenskrieg zwischen Enterprise SSD und Consumer SSD lostreten....
 
Hallo
Bin selber auch gerade am Planen da meine alte Hardware massiv Stromhungrig ist.

Als erstes RAM : Mach Dir selber einen Gefallen und schau bei Supermicro in der Speicher Liste nach was auf dein MoBo passt.
Habe selber leider die erfahrung gemacht und falsche Ram gekauft. Persönlich würd ich ECC Ram nehmen.

Für die NAS: Einen HAB den du für die NAS Platen nimmst, und in Proxmox einfach durchreichen in die FreeNAS VM.

Für Proxmox selber: Proxmox ist sehr schreib intensief dur die Logs. Habe selber eine Consummer SSD an ihr lebensende gebracht.

Daraufhin habe ich Proxmox auf 2 kleinen HDD´s mit ZFS Raid 1 Instaliert.
Und für die VM zur zeit 4 240er Enterprise mit ZFS Raid 10.

Hoffe ich konnte Dir eine möglichkeit aufzeigen.
 
Danke! Dann lag ich mit meiner Überlegung nicht soweit ab.

Also ist ein Layout wie dieses hier

Code:
root
├─ PVE-VMs
│  ├─ ZRAIDZ2 - ~ 1,5 TB nutzbar
│     ├─ Enterprise SSD 1 -  400 GB
│     ├─ Enterprise SSD 2 -  400 GB
│     ├─ Enterprise SSD 3 -  400 GB
│     ├─ Enterprise SSD 4 -  400 GB
│     ├─ Enterprise SSD 5 -  400 GB
│     ├─ Enterprise SSD 6 -  400 GB
│
├─ HBA
│  ├─ NAS-Storage
│    ├─ ZRAIDZ2 ~ 15,4 TB nutzbar
│        ├─ WD RED HDD 1 - 4 TB
│        ├─ WD RED HDD 2 - 4 TB
│        ├─ WD RED HDD 3 - 4 TB
│        ├─ WD RED HDD 4 - 4 TB
│        ├─ WD RED HDD 5 - 4 TB
│        ├─ WD RED HDD 6 - 4 TB
│
├─ PVE OS
   ├─ ZRADIZ1~ 96 GB nutzbar
      ├─ HDD1 - 100 GB
      ├─ HDD2 - 100 GB

ein sinnvoller Ansatz? Oder den VM-Pool über ein mirror ZRAIDZ1 abbilden?

Der RAM ist für das Supermicro Board ist ECC, nur leider EOL und daher nur in der Bucht. Es gibt RAM mit höherer Taktung der noch nicht EOL ist.

Das führt mich jetzt zu den weitren Fragen:

  • WelcherHBA und woher?
  • Welche Enterprise SSD und woher?
  • Da ich noch ZFS noob bin.... es gibt bestimmt x-Anletingen im Interwebz. Eine Empfehlung?
 
Last edited:
My opinion: ZFS is for experts. In the right hands it will handily outperform hardware based RAID controllers. I am not an expert.

In twelve months time, I trashed a perfectly good pair of enterprise grade NVME drives, and my system performance was terrible.

I rolled out a new server last month, using a HPE Proliant DL325 Gen10 AMD EPYC 7402P P16696-B21 loaded with 8 Seagate 800GB Nytro 3531 SAS drives. It cost ($5,000) more than my 12 month old server, hopefully, I will get more life from this box.
 
Okay, I don't want to spend 5000€ for a homeserver :).

So a second sugesstion is to use multiple Raids. Any suggestions for suitable raid controllers?

Is a RAID with consumer SSDs a bad idea?
 
I. have successfully used better consumer SSDs with good success. I have started paying close attention to the manufacturer's TBW / DWPD specification, historically, I have been a Samsung fan, Seagate is starting to catch up.

Anyone know if the IBM M5110 is compatible with PVE? They run $20 on ebay, 3 years ago, they were a good solution, not sure about current state of affairs.
 
So is using a HW-RAID for the VMs with consumer SSDs a good or bad idea? I have no real experience in enterprise sotrage soultions so i do not have a clue what a good enterprise SSd is. Until now i just used the RAID-Controllers that came with the mobo. So for what do i have to look for regardingd enterpreise SSDs and RAID-Controllers?

Is this RAID Controller: Adaptec 71605 16-port int SATA / SAS RAID Controller 6G PCIe x8 3.0 1GB AFM BBU
( Ebay ) "good"?

Does it make sense to split the RAID to two controllers.... 1 RAID-Controller only for the NAS-HDDs an the other one for PVE-Os and VMs?

Is Intel a good brand for enterprise SSDs? Eg. this one ntel Dc S3700 400GB 2.5 " 6Gbps SATA SSD SSDSC2BA400G3P ( Ebay )

I'm thinking about this:

Code:
root
├─ PVE-VMs (RAID Controller 1)
│  ├─ RAID10 - ~ 800 gb TB nutzbar
│     ├─ Enterprise SSD 1 -  400 GB
│     ├─ Enterprise SSD 2 -  400 GB
│     ├─ Enterprise SSD 3 -  400 GB
│     ├─ Enterprise SSD 4 -  400 GB
│
├─ NAS-Storage (RAID Controller 2)
│   ├─ RAID10 ~  16 TB nutzbar
│      ├─ WD RED HDD 1 - 8 TB
│      ├─ WD RED HDD 2 - 8 TB
│      ├─ WD RED HDD 3 - 8 TB
│      ├─ WD RED HDD 4 - 8 TB
│
├─ PVE OS (RAID Controller 1)
   ├─ RAID10 ~ 200 GB nutzbar
      ├─ HDD1 - 100 GB
      ├─ HDD2 - 100 GB
      ├─ HDD1 - 100 GB
      ├─ HDD2 - 100 GB
 
Danke! Dann lag ich mit meiner Überlegung nicht soweit ab.

Also ist ein Layout wie dieses hier

Code:
root
├─ PVE-VMs
│  ├─ ZRAIDZ2 - ~ 1,5 TB nutzbar
│     ├─ Enterprise SSD 1 -  400 GB
│     ├─ Enterprise SSD 2 -  400 GB
│     ├─ Enterprise SSD 3 -  400 GB
│     ├─ Enterprise SSD 4 -  400 GB
│     ├─ Enterprise SSD 5 -  400 GB
│     ├─ Enterprise SSD 6 -  400 GB
│
├─ HBA
│  ├─ NAS-Storage
│    ├─ ZRAIDZ2 ~ 15,4 TB nutzbar
│        ├─ WD RED HDD 1 - 4 TB
│        ├─ WD RED HDD 2 - 4 TB
│        ├─ WD RED HDD 3 - 4 TB
│        ├─ WD RED HDD 4 - 4 TB
│        ├─ WD RED HDD 5 - 4 TB
│        ├─ WD RED HDD 6 - 4 TB
│
├─ PVE OS
   ├─ ZRADIZ1~ 96 GB nutzbar
      ├─ HDD1 - 100 GB
      ├─ HDD2 - 100 GB

ein sinnvoller Ansatz? Oder den VM-Pool über ein mirror ZRAIDZ1 abbilden?

Schön wie der Thread mal schön verenglischt wurde :p

Ich würde PVE OS und PVE-VMs mergen, kein Grund warum hier 2x100GB verbraten werden sollten. Bei raidz2 musst du dir im klaren sein, dass dein Speicher überhaupt nicht mehr planbar ist und hier im Forum jede Woche ein neuer Post wegen zu wenig Speicher im RAIDz* auftaucht. Auch würde ich deinen raidz2-Festplattenpool nicht verwenden wollen, den du hast die IOPS von _einer_ Disk. Grundsätzlich ist IMHO RAIDz2 nur für Backups sinnvoll, denn so unterirdische Zugriffszeiten will keiner im Betrieb haben.

Der RAM ist für das Supermicro Board ist ECC, nur leider EOL und daher nur in der Bucht. Es gibt RAM mit höherer Taktung der noch nicht EOL ist.
Wie genau ist es schlimm, dass der RAM EOL ist? Ist ja nicht so, dass du da ein Firmwareupdate aufspielen müsstest. Ich glaube du verwechselst das in diesem Fall mit Garantie.

Generell ist gebrauchte Hardware immer so ne Sache. Ich persönlich mag sie sehr, denn neue Hardware ist sau teuer für den Heimbereich.
 
Ich wechsel auch gerne auf Deutsch :)

Also sehe ich das richtig das man eher Hardware-RAID10 wie zfs nehmen sollte? Es gäbe ja auch noch RAID5....
*hmm*

Das EOL beim Speicher ist mir eigentlich schnuppe. Ich bekomme nur fürs gleiche Geld mehr GB wenn ich das Board von Supermicro X11ssl-f auf Supermicro X11SCH-F tausche. Ist zwar beides 1151er Sockel aber ob mein alter Xeon dann auf dem Board rennt hab ich noch nicht rausgefunden.

Das X11SSL-F hat max. 64GB RAM das X11SCH-F hat max 128 GB RAM.

Zum Thema Massenspeicher.....
Was ist von der Intel DC S 3520 zu halten?
 
Also sehe ich das richtig das man eher Hardware-RAID10 wie zfs nehmen sollte? Es gäbe ja auch noch RAID5....
*hmm*

Das kommt immer darauf an auf was du optimierst:
Ich würde für alles stripped mirrored vdevs (RAID10-Analog) mit ZFS nehmen, das ist das schnellste, jedoch verbrät es die Hälfte des Bruttospeichers. RAIDz2 nur für Backups, sonst hat man damit keinen Spaß für VMs und der Speicherplatz kann verschleudert werden, wenn das gesamte System nicht aufeinander abgestimmt ist.
 
Das kommt immer darauf an auf was du optimierst:
Ich würde für alles stripped mirrored vdevs (RAID10-Analog) mit ZFS nehmen, das ist das schnellste, jedoch verbrät es die Hälfte des Bruttospeichers. RAIDz2 nur für Backups, sonst hat man damit keinen Spaß für VMs und der Speicherplatz kann verschleudert werden, wenn das gesamte System nicht aufeinander abgestimmt ist.
Die striped mirrored Variante war mich noch gar nicht bewusst. Klar RAID10 über HW-Controller, aber via ZFS war das bisher für mich inner ein RAIDZ2. Muss ich mir mal den Unterschied genauer ansehen.

Gibt es eigentlich Gründe dagegen das PVE-OS, die VMs und die ISOS auf ein vdev zu legen? Abgesehen davon das man vermutlich mit mehreren vdevs konkurrierende Schreibt/ Lesezugriffe minimiert (?)
 
Hallo PVE Community,

ich habe jetzt seit gut 4 Monaten eine PVE Spielwiese bei mir und möchte diese Spielwiese zum Homeserver weiterentwickeln.

Der / Die Use-Cases:

  • Openhab-Server (Basierend auf Opoenhabian @ ubuntu 20.04 x64)
    • Zugriff auf diverse USB Sticks (Bridges) - das klappt in der Spielwiese schon
  • Zway-Server ( Zwave.Me Server @ ubuntu 20.04 x64)
    • Zugriff auf diverse USB Sticks (Bridges) - das klappt in der Spielwiese schon
  • Plex-Server (VM-Os egal...) - Probiert über LXC und Windows Host, da stell ich mich aber noch etwas an ;)
    • Zugriff auf NAS Share - der Share ist noch ned da da das NAS noch nicht da ist
  • FreeNas bzw. TrueNas
    • Geplant sind hier 16 TB ZRAIDZ2 bestehend aus 6 x 4 TB HDD (angedacht waren hier WD RED)
  • evtl. mal ne Nextcloud
  • ganz unwahrscheinlich mal nen DB-Server
Der "Unterbau" der Spielwiese bzw. des Homeservers:

Supermicro X11SSL-F Intel C232 So.1151 Dual Channel DDR4 mATX Bulk

Intel Xeon E3-1225v6 4x 3.30GHz So.1151 BOX
16GB (1x 16384MB) Samsung M391A2K43BB1 DDR4-2133 DIMM CL15 Single

Der RAM wird dann auf 64 GB ausgebaut. Auch wenn der SAMSUNG RAM nur noch in der Bucht zu holen ist.
An Platten hab ich das hergenommen was grad rumlag. Und da fängt dann die Fragerei an.

Unter den gegeben User Cases würde mich eure Meinung interessieren wo welche Speicherart (gemeint Enterprise SSD, Consumer SSD oder HDD) und in welcher Konfiguration "sinnig" ist. Ich hab hier schon viel gelesen, aber ich bin in dem Zustand das ich eher verwirrt bin wie weiß was ich will.

Und ja ich will hier keinen Glaubenskrieg zwischen Enterprise SSD und Consumer SSD lostreten....

Hallo Hogan,

hast du eine Anleitung, wie man den Zway-Server auf Ubuntu 20 bekommt? Ich finde nichts.
Ich bleibe immer am der libssl hängen.
 
Zum ZFS:
Als absoluter ZFS Fan würde ich auch einem Einsteiger zu ZFS raten (Wenn du damit nicht gerade ein Krankenhaus-Server sofort produktiv schalten willst oder gerade dann ;-))
Geh mal auf die youtupe und such' nach "zfs rocks", da wird dir geholfen
Ich wähle meistens, wenn es ums Gelt geht günstige Enterprise / Datacenter SATA HDDs zB Seagate Exos 7E8, WD-Gold Toshiba ??
und weil die nicht so schnell sind, schalte ich die ins schnellste Raid, nämlich ein Raid-10.
Ansonsten wechsle ich inzwischen bei Projekten wo nicht zu viel Speicher benötigt wird, oder es bezahlt wird, zu Enterprise SSD zB aktuell zur Seagate Nytro 1551 mit 3DWPD und immer mit power-loss-protection oder noch eine Stufe besser (teurer): die Intel D3-S4610-SSD , auch noch per SATA angebunden im Raid1. Die nächste Stufe ist dann halt: Wenns richtig schnell werden soll, per U.2 (PCI / NVMe) angebunden

EDIT:
Ich halte es durchaus für vertretbar, wenn Ausfallzeit nicht gleich tödlich für den ganzen Betrieb ist, das reine Proxmox Hostsystem auf eine einzelne gute kleine SSD (ohne Raid) plus ein im Anschuss an die Grundinstallation angehängtes 4x Server-HDD ZFS Raid-10.
Natürlich existiert ein gutes Backup Konzept zB mit Proxmox-Backup-Server. Und natürlich ZFS Snapshots
Fliegt dir die SSD um die Ohren, hat man das Datenverlustfrei ratzfatz wieder am Start.
Was wir noch ausprobieren wollen, ist eine Art Clon des Proxmox Systems auf einen USB Stick für den Notfall.
Da könnte man evtl. sogar per IPMI reinbooten ;-)
Hat jemand sowas schon mal ausprobiert?

Dein Samsung RAM ist gut, der läuft bei mir in mehreren Systemen mit gleichem Board.
jetzt wechseln wir in unserem SOHO Bereich zu
- Supermicro X11SCH-F
- Intel Xeon E-2236
- DDR$-26666 SAMSUNG Server ECC-RAM, M391A2K43BB1-CTD
Zu bekommen bei www.ctt.de oder wohl bei Thomas Krenn

Grüße.
maxprox
 
Last edited:
Zum Thema Massenspeicher.....
Was ist von der Intel DC S 3520 zu halten?

Als opjektive Werte kannst du zwischen den Teilen vor allem folgende Werte vergleichen:
  • Bewertung der Ausdauer (lebenslange Schreibzugriffe)
  • und/oder den DWPD (Drives Writes Per Day) (siehe: https://www.kingston.com/germany/de/ssd/dwpd )
  • IOPS
  • und evtl. die restlichen Gewindigkeitsparameter
  • Power-loss-protection sollten sie alle haben, genauso wie mind. 5 Jahre Garantie, Verschlüsslung ...

Letztendlich muss man ansonsten dem Hersteller und seiner "Einsatzbedingungen" vertrauen, oder wie du das machst, die Kollegen fragen.
Das bleibt aber oft sehr subjektiv, wenn ein kleiner Krauter in 10 Jahren 20 - 30 Intel Server SSD eingesetzt hat und keine ist bisher ausgestiegen,
wird der drauf schwören und immer wieder Intel einsetzten, ob das deswegen die weltbesten sind ... :))
Daher lege ich mich ungern auf eine Marke fest. (Bei mir wäre das vergleichbar SAMSUNG Server ECC RAM, ich kenne keinen kaputten, aber ob ich auf 20-30 Module komme - hab nicht mitgezählt, ist zulang her )
Grüße,
m.
 
Danke für die umfangreiche Antwort.

Du meinst also ein Layout in dieser Form:

Code:
root
│
├─ PVE OS + VM ISO + VMs
│    ├─ 960 GB SSD
│        Backup auf  ZFS RAID10 ~ 1000 GB nutzbar
│                    ├─ HDD1 - 500 GB
│                    ├─ HDD2 - 500 GB
│                    ├─ HDD3 - 500 GB
│                    ├─ HDD4 - 500 GB
├─ TureNas Sotorage (via RAID Controller )
│   ├─ RAID10 ~  16 / 24 TB nutzbar
│      ├─ WD GOLD HDD 1 - 8 - 12 TB
│      ├─ WD GOLD HDD 2 - 8 - 12 TB
│      ├─ WD GOLD HDD 3 - 8 - 12 TB
│      ├─ WD GOLD HDD 4 - 8 - 12 TB
 
Last edited:
Ja, ich zeig dir mal, wie das eingerichtet unter Proxmox aussieht:

Code:
root@fcpro ~ # zpool status
## EIN RAID 10
  pool: r10pool
state: ONLINE
  scan: scrub repaired 0B in 02:21:19 with 0 errors on Sun Mar 14 02:45:20 2021
config:

    NAME                                  STATE     READ WRITE CKSUM
    r10pool                               ONLINE       0     0     0
      mirror-0                            ONLINE       0     0     0
        ata-ST6000NM0125-1YY110_XXXXXXX   ONLINE       0     0     0
        ata-ST6000NM0125-1YY110_XXXXXXX   ONLINE       0     0     0
      mirror-1                            ONLINE       0     0     0
        ata-ST6000NM0125-1YY110_XXXXXXX   ONLINE       0     0     0
        ata-ST6000NM0125-1YY110_XXXXXXX   ONLINE       0     0     0

errors: No known data errors

## EIN ZFS raidz1 = RAID5
  pool: r5pool
state: ONLINE
  scan: scrub repaired 0B in 00:18:22 with 0 errors on Sun Mar 14 00:42:27 2021
config:

    NAME                                      STATE     READ WRITE CKSUM
    r5pool                                    ONLINE       0     0     0
      raidz1-0                                ONLINE       0     0     0
        ata-TOSHIBA_MG05ACA800E_58JXKXXXXXXX  ONLINE       0     0     0
        ata-TOSHIBA_MG05ACA800E_58L7KXXXXXXX  ONLINE       0     0     0
        ata-TOSHIBA_MG05ACA800E_58M9KXXXXXXX  ONLINE       0     0     0
        ata-TOSHIBA_MG05ACA800E_58M9KXXXXXXX  ONLINE       0     0     0
        ata-WDC_WD8004FRYZ-01VAEB0_VDXXXXXXX  ONLINE       0     0     0

errors: No known data errors

Ein RAID1 = Mirror, einfach

  pool: rpool
state: ONLINE
  scan: scrub repaired 0B in 00:00:57 with 0 errors on Sun Mar 14 00:25:07 2021
config:

    NAME        STATE     READ WRITE CKSUM
    rpool       ONLINE       0     0     0
      mirror-0  ONLINE       0     0     0
        sda2    ONLINE       0     0     0
        sdb2    ONLINE       0     0     0

errors: No known data errors
Ein ZFS Raid 10 besteht immer aus zwei Raid-1 Mirrors (=Ausfallsicherheit) zwischen denen Raid 0 mäßig, Striping statt findet (= Performance), daher braucht es mind. 4 HDDs oder SSDs
 
Last edited:
Ich hab aufgeschnappt, das man die HDDs für TureNAS direkt an die VM durchreichen soll. Daher der RAID Controller der entsprechend geflasht ist.... oder klappt das mittlerweile mit ZFS pools auch verlässlich? Da ließt man im TureNAS / FreeNas das man die Finger davon lassen soll.

Der rpool sichert auf den r5pool? Der r10pool ist das "Datengrab" ?
 
Ich hab aufgeschnappt, das man die HDDs für TureNAS direkt an die VM durchreichen soll. Daher der RAID Controller der entsprechend geflasht ist.... oder klappt das mittlerweile mit ZFS pools auch verlässlich? Da ließt man im TureNAS / FreeNas das man die Finger davon lassen soll.

Der rpool sichert auf den r5pool? Der r10pool ist das "Datengrab" ?
Nö 1:,
Wenn ZFS Raid, kommen die immer direkt an das Mainboard oder einen extra dafür vorgesehenen Controller, sogenannte HBA Conroller ohne Raid funktion. (das umflashen eines Raid-Controllers ist ein Notlösung, die funktionieren kann ... (etwas ironisch gemeint, lass da die Finger von) )
Nö 2:
Ein Raid 10 ist niemals ein Datengrab!
Wenn dann das Speichereffizientere und langsamere Raidz1 (Raid-5), hab ich doch versucht zu beschreiben ;-)
Nö 3:
rpool ist ein SSD Raid 1 für Proxmox / Hostbetriebssystem
r10pool: Überwiegend für die zahlreichen vm Installationen
r5pool: Als großer Speicher für Daten und für Kunden-Online-Backup (BaaS)
Backup auf externen Mini Server, bisher per (offline/remote) ZFS Snapshots jetzt stellen wir auf externen Proxmox-Backup-Server um

Bei ZFS brauchts du R A M! Bei genügend Arbeitsspeicher, rennt auch ein ZFS HDD-Raid-10 sehr sehr gut!
Obiges System bräuchte mindestens grob 32 GB RAM allein für die ZFSs. Die Kiste hat insg. 128 GB. Das läuft absolut klasse.
Es kommt doch auch darauf an, ob 20 oder 2.000 Leute drauf zugreifen; ob überhaupt und was für Datenbanken laufen, usw. ab wann dann Systme mit U.2 SSDs und/oder Hardware Raid ohne ZFS sinnvoller ist. Wie gesagt ich bin im SOHO zuhause, also eher 20 gleichzeitige Zugriffe und überschaubare DBs, da überwiegen die Raid-10 Vorteile, zB die perfekte Sicherheit duch Snapshots, absolut
 
Last edited:
Ok alles falsch verstanden, aber danke für die Erläuterung ;).
Datengrab war auf die Größe des Speicher bezogen nicht auf die Gefahr des Verlustes..

Die Platten die am HBA hängen gehen dann aber direkt an z.B. die TureNAS-VM durch und werden dort für einen zfs pool verwendet? Also von TrueNas verwaltet und nicht von Proxmox. Das wäre dann hier ein r5pool?

Langsam hat der Fichtenmoped genug Bäume gefällt, dass ich Licht im Wald sehe ;)
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!