Search results

  1. E

    [SOLVED] raidz vs draid - Performance Frage

    alles klar, sind alles ssd - 15 Stück - dann habe ich das schon richtig verstanden gehabt, dass die Special device Geschichte vor allem was bringt, wenn man hdds hat, Vielen Dank nochmal.
  2. E

    [SOLVED] raidz vs draid - Performance Frage

    Ich habe total nur die 15 x 2TB ssd's darum frage ich mich nun ob einfach die 14/2=7 Gruppen ohne Special Device ausreichend sind, oder ob ich Performance gewinne, wenn ich 12/2=6 Gruppen mit 1 spare und 2 für s special device nehmen würde. dann würde ich mal versuchen zu vergleichen 5x3 gruppen...
  3. E

    [SOLVED] raidz vs draid - Performance Frage

    Danke, das war mir nicht klar, dann wäre die Frage welche mirror config mit diesen 15 disks am sinnvollsten wäre, was wahrscheinlich in die Richtung ginge, die auch news anspricht? Etwas in die Richtung, oder mit Special Devices entsprechend weniger Gruppen?
  4. E

    [SOLVED] raidz vs draid - Performance Frage

    Hi @news und danke für Deinen Post. Wie würde diese Konfiguration bei 15x 2TB Disks aussehen? Wenn ich Dich richtig verstehe würde damit die Performance nochmals höher als mit den 5 vdevs à je 3 disks im raidz1 sein?
  5. E

    [SOLVED] raidz vs draid - Performance Frage

    Ach moment, das hatte ich nicht mehr in Erinnerung, dass es die Empfehlung as ssd-type mirrors gibt. Werde die in demfall die pvbs Doku nochmals durchschauen aber - anders gefragt - wenn ich nach der Installation in der Gui den Pool anlege, wird die empfohlene Konfiguration automatisch...
  6. E

    [SOLVED] raidz vs draid - Performance Frage

    Muss ich noch etwas beachten, wie blockgrösse o.ä. Wo kann ich mich da einlesen, um das richtig zu konfigurieren? Lese immer wieder auch von der Einstellung -o ashift=12. Kompression einschalten macht denke ich Sinn (bei pve und/oder pbs), Deduplizierung wohl eher weniger, wegen zu hohem RAM...
  7. E

    [SOLVED] raidz vs draid - Performance Frage

    Guten Morgen @waltar verstehe. Dann wird es auch auf dem pbs auf ein raidz hinauslaufen, einfach eines welches mehr auf Platz Effizienz und Ausfallsicherheit als auf Geschwindigkeit ausgelegt ist.
  8. E

    [SOLVED] raidz vs draid - Performance Frage

    Guten Morgen @smueller danke für das Teilen des Tools, das ist wirklich toll und gibt einem eine Idee. Ich habe mich in der Tat auch gefragt, ob ein raidz1 in 3 oder 5 Gruppen genommen werden soll. Ich verstehe das schon richtig, dass insgesamt 3 Platten ausfallen können, jedoch nur eine pro...
  9. E

    [SOLVED] raidz vs draid - Performance Frage

    ich bin am 2 pve & 1 pbs am aufsetzen. Alle Server haben 15 x 2TB sata Disks verbaut für den Datenpool. Das OS wird auf 2 kleinere Platten in Mirror Konfiguration aufgesetzt. Bei den PVE nodes ist mir vor allem die Performance wichtig, also Durchsatz und IO. Ein Ausfall einer Platte sollte...
  10. E

    [solved] network configuration

    no ceph as its a 2 node cluster only thus pve.
  11. E

    [solved] network configuration

    Thanks. Pardon me if this doesnt make sense as I never used it before, but would a bond of two of these mellanox ports and then using this bond as link device increase the maximal performance of the cluster network, or is 40 Gbit more than enough for the clusternetwork between two nodes anyway...
  12. E

    [solved] network configuration

    I have 2 pve nodes which have a card with two mellanox connect x 3 EN 40 Gbit ports. I want to use at least one of them to directly connect the two nodes per cable for the cluster traffic. Question: Can the system profit if I connect the pve nodes twice by 40 Gbit for clustertraffic or will...
  13. E

    [gelöst] Datenpool für 2 Node Cluster mittels Disks von 2 PVE Servern

    Vielen Dank Jungs, ihr seid die besten. Alle Fragen soweit perfekt beantwortet. Da unser Unternehmen die Mellanox Switches ausser Betrieb genommen hat, und ein Weiterbetreiben dieser nicht in Frage kommt, nutze ich die 2 Anschlüsse mindestens als Clusternetz zwischen den zwei Nodes. Somit bleibt...
  14. E

    [gelöst] Datenpool für 2 Node Cluster mittels Disks von 2 PVE Servern

    Hi Falk R. Vielen Dank für Deine Antwort. Ist es also denkbar, im Falle eines 2 Node Clusters, die Replikation auf sowas 1 bis 5 Mintuen je nach VM runterzuschrauben, und generiert nicht zuviel Datenverkehr? Dann wäre zfs effektiv mit Replikation effektiv eine Option. Es handelt sich um ein...
  15. E

    [gelöst] Datenpool für 2 Node Cluster mittels Disks von 2 PVE Servern

    Ich hätte nichts dagegen, Ceph mal auszuprobieren, habe aber nur einen 2 Node Cluster in Planung - darum war ich der Meinung, dass dies für ceph kein geeignetes Setup wäre, obwohl ich 2 x 40 GB Mellanox/connect x 3EN Ports pro Servernode zur Verfügung habe, aber vielleicht etwas typenähnliches...
  16. E

    [gelöst] Datenpool für 2 Node Cluster mittels Disks von 2 PVE Servern

    Hallo Oachkatze, danke für Deine Antwort. Mit Deinem Vorschlag habe ich schon erste Erfahrungen gemacht- das meine ich mit "Bisher habe ich erste Erfahrung mit einem 2Node Cluster sammeln können ohne geteilten Datenpool, auf welchem ich jeweils Replikationsjobs für die VMs aktiviert habe, sodass...
  17. E

    [gelöst] Datenpool für 2 Node Cluster mittels Disks von 2 PVE Servern

    Ich habe 2 Server, mit jeweils 2 kleineren OS Disks, sowie je einem Dutzend SATA 2 TB ssd Disks als Datenpool. Die Aufgabe ist nun, dies analog des früheren Hyper-V Setups dieser Server aufzusetzen, das bedeutet, dass die 2 TB Disks in beiden Servern zusammen als ein Datenpool fungieren sollen...
  18. E

    [TUTORIAL] Native full-disk encryption with ZFS

    @moderators Can you please do me a favour and split the non relevant part of this thread in a new one, as my intention is not to polute this great guide which has the topic of full disk encryption with zfs? Thread title maybe full disk encryption by tpm2 stored key with additional password or pin.
  19. E

    [TUTORIAL] Native full-disk encryption with ZFS

    Getting closer as I reinstalled Debian on ext4 with luks and cryptsetup using this guide, which also works fine, but does not ask for password anymore - just uses the tpm module for decryption. My next step will be to try out systemd-cryptenroll as it supports a pin to unlock the disk with a tpm...
  20. E

    [TUTORIAL] Native full-disk encryption with ZFS

    It really sounds like THE solution, but its way over my head.