Search results

  1. H

    ZFS Schreiben langsam

    Sind beides baugleiche Maschinen. Die selben SSDs, selber Prozessor, selbes Mainboard mit HBA, gleich viel RAM. Nur das auf einem das root auf ZFS läuft und beim anderen für pve ein ext4 auf einem lvm liegt. Ich habe auch schonmal wieder bisschen weitergeforscht... folgendes ist aufgefallen...
  2. H

    ZFS Schreiben langsam

    Kann Verschlüsselung das Problem sein? zpool get feature@encryption NAME PROPERTY VALUE SOURCE rpool feature@encryption enabled local Kann man die zu Testzwecken einfach mal deaktivieren, ohne das Daten verloren gehen? Oder muss der Pool neuangelegt...
  3. H

    ZFS Schreiben langsam

    Ja, dann kann ja irgendwas nicht stimmen. Ich wüsste nicht wann ich Deduplizierung angehabt haben sollte, ansonsten ist der Pool mit den vorgegebenen Standardwerten von Proxmox installiert worden. ashift=12, Compression=on, usw. usf. Hier zpool status: zpool status -v pool: rpool state...
  4. H

    ZFS Schreiben langsam

    So toll ich ZFS und dessen Features finde, bin ich etwas von der Performance eines ZFS Mirrors enttäuscht. Aber scheinbar gibt es da gar nicht mehr Möglichkeiten, außer man rüstet mit Hardware auf: SLOG vor die SSDs, sowas wie Intel Optane oder eine M.2 Mehr Arbeitsspeicher Raid-Z mit mehr...
  5. H

    ZFS Schreiben langsam

    Das wäre dann aber nicht wirklich hilfreich, da ich ein zvol nur bei einer Qemu-VM zum Einsatz kommt. Bei einem LXc Container werden doch nur Datasets verwendet, oder nicht? Habe jetzt einfach mal ein Dataset erstellt: zfs create rpool/data/test Erst fio mit write: io...
  6. H

    ZFS Schreiben langsam

    Habe jetzt nochmal mit fio direkt auf den rpool random geschrieben, dass Ergebnis ist etwas enttäuschend: fio --name=randfile --ioengine=libaio --iodepth=32 --rw=randwrite --bs=4k --direct=1 --size=1G --numjobs=8 --group_reporting randfile: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W)...
  7. H

    Proxmox Cluster über IPSec(hohe Latenz)

    Soweit ich weiß, gibt es keine All-In-One-Lösung die plug'n'play funktionieren würde. Mist.io könnte man probieren. Aber keine Garantie.
  8. H

    ZFS Schreiben langsam

    Das ganz frische und aktuelle 6.0-6. Beim kopieren mit scp von einem NAS auf diesen Node, hatte ich über 10Gbit NIC auch einen Durchsatz von etwa 450Mb/s. Wobei ich mir da nicht sicher bin ob hier Linux generell über den RAM zwischenspeichert und somit dies nicht wirklich aussagekräftig ist...
  9. H

    ZFS Schreiben langsam

    Wenn ich das richtig verstanden habe, kann man mit... zfs set compression=off pool ... die Compression ohne Gefahr im laufenden Betrieb abschalten?! Zumindest wird das hier erwähnt: https://forum.proxmox.com/threads/disable-zfs-compression.36693/ Da könnte ich das ja bei Gelegenheit mal...
  10. H

    ZFS Schreiben langsam

    Sowohl als auch. Für einen 10Gb Container mit vzdump braucht der ext4-Node maximal 1 Minute und hatte jetzt etwa 160Mb/s, während beim ZFS-Node der selbe Container fast 3 Minuten brauchte und der Durchsatz bei etwa 80MB/s lag. Ja, habe Standardinstallation verwendet, weil ich root auf ZFS wollte.
  11. H

    ZFS Schreiben langsam

    Hallo, ich habe zwar schon einige Themen durchforstet, aber bisher nichts passendes gefunden für mein Problem: Mir ist aufgefallen, dass beim erstellen eines Dumps mit vzdump ohne compress oder irgendetwas die Schreibrate im Vergleich zu einem Node mit ext4 um mehr als die Hälfte langsamer war...
  12. H

    Von qcow2 zu ZFS dataset

    Das ist schon klar. Habe mich da vielleicht etwas unverständlich ausgedrückt. Ich meinte das ich derzeit zwei Proxmox Nodes habe, einer läuft mit reinem Ext4-Dateisystem und die VM mit QCOW2 dort drauf, der andere Node ist mit einem reinem ZFS unterwegs. Ziel ist also: Von dem QCow2 in ein zvol...
  13. H

    Von qcow2 zu ZFS dataset

    Da muss ich erstmal checken ob das so möglich ist. Aber normalerweise neue Disk erstellen, ext4 drauf und dann alles datei-basiert kopieren. Später dann den selben Mountpoint vergeben und es sollte eigentlich alles gut sein. Die VM läuft derzeit nicht auf dem ZFS-on-Root, sondern immer noch auf...
  14. H

    Von qcow2 zu ZFS dataset

    Hallo, der Titel sagt schon einiges, aber hier nochmal etwas ausführlicher: Hatte bisher zwei Standalone Nodes und möchte diese nun als 2-Node-Replication mit ZFS betreiben. Beide Nodes sind schon auf Version 6. Einer davon wurde sogar komplett neu installiert und mit einen Root-Dateisystem auf...
  15. H

    [SOLVED] ZFS Replace

    Vielen Dank. So geht es natürlich auch.
  16. H

    [SOLVED] ZFS Replace

    Habe die sda jetzt einfach mal an einem anderen Rechner komplett formatiert und dann bin ich nach diesem Workaround vorgegangen: https://pve.proxmox.com/wiki/ZFS:_Tips_and_Tricks#Replacing_a_failed_disk_in_the_root_pool Das funktioniert aber nicht und musste einige andere Schritte unternehmen...
  17. H

    [SOLVED] ZFS Replace

    Dann kommt dieser Fehler hier, er will auch unbedingt ein Device was er "austauschen" kann: zpool attach -f rpool /dev/sda /dev/sda invalid vdev specification the following errors must be manually repaired: /dev/sda3 is part of active pool 'rpool'
  18. H

    [SOLVED] ZFS Replace

    Hallo, habe mal eine kurze Frage. Musste jetzt einen Routine-Server komplett neu aufsetzen und habe mich für ein ZFS Mirror entschieden, bestehend aus zwei Enterprise SSDs. Ist ein Standalone-Node mit drei LXC-Containern. Bin gerade meine Konfiguration am testen und wollte jetzt simulieren...
  19. H

    [SOLVED] LXC-Container starten nicht mehr

    OK. Die Lösung all meiner Probleme bestand darin, nochmals... pveupdate pveupgrade ...auszuführen. Danach noch Reboot und alles funktioniert wieder. Warum es beim ersten Mal nicht gleich alles heruntergeladen und installiert hat, bleibt ein Rätsel.
  20. H

    [SOLVED] LXC-Container starten nicht mehr

    pveversion -v proxmox-ve: 5.0-18 (running kernel: 4.10.17-1-pve) pve-manager: 5.0-29 (running version: 5.0-29/6f01516) pve-kernel-4.10.17-1-pve: 4.10.17-18 libpve-http-server-perl: 2.0-13 lvm2: 2.02.168-pve6 corosync: 2.4.4-pve1 libqb0: 1.0.3-1~bpo9 pve-cluster: 5.0-12 qemu-server: 5.0-14...