Search results

  1. H

    Mehrere ZFS Pools

    Ich werde es wohl auch so machen. Vor allem sehe ich problematisch, dass bei einem Fehlerfall, ebenfalls das OS betroffen wäre. Ganz simpel: Sollte mal der komplette Pool abschmieren, warum auch immer, müsste ich bevor ich ein Backup der VM/CT zurückspielen kann... erstmal eine komplette...
  2. H

    Mehrere ZFS Pools

    Hallo, mal eine generelle Frage: Bringt es irgendeinen Profit, oder vielleicht sogar einen Nachteil, wenn man Proxmox in einem rpool Mirror installiert und dann einen separaten Pool nur für die Container/VMs? Mein Plan: 2x240Gb ZFS Mirror für Proxmox 4x960Gb ZFS Raid10 für VM + 400Gb SAS SSD...
  3. H

    ZFS Schreiben langsam

    Habe jetzt durch Zufall herausgefunden, dass scheinbar vzdump eine Art Limitierung fest hinterlegt hat. Erst wenn man das bwlimit in der /etc/vzdump.conf manuell setzt, kann man das umgehen. Habe bwlimit=200000 gesetzt. Jetzt konnte ich zumindest mit 122MiB/s einen dump anlegen... Der Wert ist...
  4. H

    ZFS Schreiben langsam

    Dachte nur das etwas komisch sei. Habe mich da auch etwas belesen und da wurde unter anderem empfohlen bei Datenbanken die recordsize auf 16k zu stellen, was wohl eine wesentlich bessere Performance bringen solle. Ansonsten weiß ich jetzt auch fast nicht mehr weiter. Im Endeffekt alles...
  5. H

    ZFS Schreiben langsam

    Ok. Habe gerade entdeckt das die Standard-Blocksize auf 128K eingestellt ist, egal ob man ashift=12 setzt. Also immer... das Problem was ich jetzt sehe ist, das man sich dann nicht wundern braucht warum es so lahm ist. Soll das wirklich so sein? zfs get recordsize NAME...
  6. H

    ZFS Schreiben langsam

    Ich bin langsam mit meinem Latein am Ende. Habe jetzt auf zwei kleinere separate SSD mit Raid1 das Proxmox drauf und habe auf vier weiteren SSD ein ZFS Raid10 gebildet für die Container. Es handelt sich um Intel D3-4610 SSD. Der Pool wurde über die GUI erstellt mit ashift=12 und es wurde...
  7. H

    ZFS slow write performance

    Thats wierd. If the cache is not full, i have with vzdump ~100MB/s - old configuration. Small Improvement. When all Containers and VM off on that setup, then i have 220MB/s with randwrite. I mean in this containers there are no write intensive Operations. Wierd. fio --name=/rpool/data/testfile...
  8. H

    ZFS slow write performance

    There seems to be more problems since this weekend and ZFSonLinux. I noticed something else: i have modified my command history with date and up to 1000 entries. The older entries partly have the current date from today. Is that all right? 1 2019-09-09 09:08:12 zpool status ... 248...
  9. H

    ZFS Schreiben langsam

    Scheint wohl seit diesem Wochenende vermehrt Probleme mit dem ZFSonLinux zu geben. Mir ist jetzt noch etwas anderes aufgefallen, wo ich nicht weiß wo das herkommt, vielleicht durch die Komprimierung... keine Ahnung: Ich habe meine Command History mit Datum versehen und mit 1000 Einträgen. Da...
  10. H

    2 Server cluster Speicher optionen

    Also wenn du ein Cluster mit zwei Nodes machen willst, bleibt eigentlich fast nur noch ZFS mit Storage Replication. Für Ceph brauchst du drei Server, wie du schon richtig erkannt hast, und für alles andere bräuchtest du ein Storage. GlusterFS ginge wohl auch, aber damit kenne ich mich nicht aus...
  11. H

    ZFS Schreiben langsam

    So werd ich es machen. Habe jetzt zu nächster Woche noch paar SSDs bestellt und werde das mal entsprechend ausprobieren.
  12. H

    ZFS slow write performance

    I think the Problem is the root-on-zfs installation. I'm gonna rebuild the system, to: 2x SSD with ext4 and raid1 over mdadm for root, and zfs raid10 with 4 SSDs for vm/container. Another Node in an similar configuration, runs much better.
  13. H

    ZFS Schreiben langsam

    Ja, das verstehe ich auch nicht. Das mit der "Data Corruption" ist scheinbar ein Fehlalarm. Hängt wohl eher an den alten Datenbanken. Es handelt sich ja um die Standardinstallation und da sollten ja schon die optimalsten Einstellungen gesetzt sein. Da würde ich wesentlich bessere Ergebnisse...
  14. H

    ZFS Schreiben langsam

    Nächstes Problem: Gerade eben festgestellt, dass in einem meiner Routine-Container, Fragmente von Daten sich ansammeln... sieht nach Daten Korruption aus. Wie zum Teufel ist das nur möglich? Hatte über zwei Wochen getestet und da war nie ein solches Problem sichtbar. Woher kommt das plötzlich...
  15. H

    ZFS slow write performance

    After a long time of testing and no problems, expect low write rates, i found out that i have some data corruption in one of my routine containers. No idea how that's possible. In this Routine Container i have some c-isam databases, and there are double Entries with corrupt data now.. oh my god.
  16. H

    ZFS slow write performance

    I can live with a bit worse performance, but not when a server is overhauled by a consumer pc. In contrast to ext4, you have better features: Backup and Data Replication, write on disk. Mainboard is an Supermicro X10SRH-CLN4F. Connection is over onboard HBA. Chip is an LSI 3008.
  17. H

    ZFS slow write performance

    Hello, a few days ago I already explained my problem in the german forum, but I can't get any further, maybe someone can help me here. The overall write performance is horrible. vzdump of 22Gb LXC container ~82Mb/s, same results when i upload files to file-server container. Setup: Xeon...
  18. H

    ZFS Schreiben langsam

    Ich werde mein Problem nochmal im englischen Teil posten, vielleicht hat da noch jemand einen Einfall. Kann doch nicht sein, dass ein simpler ZFS Mirror so langsam ist. Ich bin etwas ratlos.
  19. H

    ZFS Schreiben langsam

    Irgendwie ist das alles eine komische Sache. Habe jetzt einen Rechner mit einem i7, 8Gb Ram und 2x Samsung 850 Pro zum Testen verwendet. Die Samsung 850 meldet per lsblk ebenfalls physisch 512er Sektoren. Mir kommt es so vor als wäre in der Standardinstallation als Option irgendwie eine...
  20. H

    ZFS Schreiben langsam

    Ich glaube das ist der Schlüssel zum Erfolg... die Sektorgröße müsste falsch sein. Das hier zeigt meine tatsächliche physische Sektorgröße: lsblk -o NAME,MOUNTPOINT,PHY-SEC NAME MOUNTPOINT PHY-SEC sda 512 ├─sda1 512 ├─sda2 512 └─sda3...