Search results

  1. S

    ZFS-Raid10 deutlich langsamer als Hardware-RAID

    Da sind Crucial MX500 mit 2TB drin. Die haben laut google TLC und ein DWPD von 0,2. Ob das für meine Zwecke reicht, wird sich zeigen. Ich plane jetzt, das ganze im Hardware-RAID ohne zfs und ceph einzusetzen. Die Restlebensdauer kann ich per smartctl auch durch den RaidController automatisch...
  2. S

    Upgrade to subscription repository

    Hi, is it possible to upgrade a test-system that has been using the non-subscription repo to the subscription one without reinstalling the system? Do I need to purge all installed packages from the non-subscription repo or can I simply change the sources, run update & upgrade and everything...
  3. S

    ZFS-Raid10 deutlich langsamer als Hardware-RAID

    Mit volblocksize=256k bin ich wieder in einem ähnlichen Bereich wie vorher: zfs soll in erster Linie eingesetzt werden, um einfache Replication zwischen zwei Nodes zu bekommen. Vielleicht sollte ich aber besser beim Hardware-RAID bleiben und im Zweifel vom Backup wiederherstellen. Danke für...
  4. S

    ZFS-Raid10 deutlich langsamer als Hardware-RAID

    Der Hinweis, dass ich an die falsche Stelle schreibe war schon mal ein guter Ansatz. Ich habe jetzt nochmal einen Test auf /dev/local-zfsRaid10/test gemacht und komme jetzt tatsächlich ziemlich genau auf den halben Durchsatz des Raid-Controllers: Zu den angesprochenen Themen Volblocksize und...
  5. S

    ZFS-Raid10 deutlich langsamer als Hardware-RAID

    Guten Morgen zusammen, ich teste aktuell einen neuen Server mit zfs-raid10. Dabei ist mir aufgefallen, dass die Schreibperformance deutlich hinter den Erwartungen zurückbleibt. Ich plane die Verwendung von 2 zfs-pools. Einen mirror aus 2 ssds für das Betriebssystem und einen Verbund aus 8 ssds...