Search results

  1. I

    Speed up Backupserver by adding zfs special device ?

    TBH, I don't know if PBS uses sync writes. I guess they are not needed and you could just send an ack when finished? At least my backup to an NFS share seems to work that way. Fast transfer, reaching 100% and then there is still roughly 10s delay until it really finished. Also OPs biggest issue...
  2. I

    Speed up Backupserver by adding zfs special device ?

    PLP isn't a security feature, it only speeds up sync writes.
  3. I

    Dauer zpool replace

    Edit: Da war ein vorheriger Post, der gelöscht wurde. Zwischen können (klar kannst du es in CLI machen) und supported besteht ein Unterschied. Bin gerade zu faul um nachzusehen ob es bei Proxmox im GUI geht, bei TrueNAS jedenfalls nicht. Es also als „klar geht das, kein Problem“ zu empfehlen...
  4. I

    Dauer zpool replace

    Das ist nicht supported. Ergibt keinen Sinn. Beim L2ARC (bei einem hit, wenn also warm) wie auch beim svdev werden reads von schnellem flash gelesen. Zudem verschwendet dann L2ARC RAM, also ARC. ohhch das geht schon. Besonders wenn wie bei OP hauptsächlich metadaten gelesen werden. Ich vermute...
  5. I

    Speed up Backupserver by adding zfs special device ?

    Not necessarily. Prosumer or NAS SSD have become pretty good. For 100€, I can get a refurbished 800GB DC-S3510 with 450TBW or a brand new WD Red™ SA500 1TB with 600TBW and a 5y warranty.
  6. I

    Speed up Backupserver by adding zfs special device ?

    Hmm... that is right, forgot about that one. Still a very small writes. Probably because even the cheapest SSD outperforms any HDD, but yeah it would help. You were basically testing sustained sequential writes. Extremely old SSDs and QLC SSDs offer worse numbers than a HDD when they ran out...
  7. I

    Speed up Backupserver by adding zfs special device ?

    I agree on the different brands or even better use different controllers. Lots of consumer drives use the same Phison controller. And of course 3 way mirror is always better than a 2 way mirror. Still think 2 way mirror is perfectly fine for my homelab. What I don't understand is this part: If...
  8. I

    Dauer zpool replace

    Kommt darauf an. Du kannst deine VMs auch auf einen NVME mirror legen und die Daten auf ein RAIDZ2 dataset. Dann hast du - blitzschnelle VMs - viel Speicher für Daten - Kein Problem mit Fragmentierung - Dadurch viel schnellere resilver - Daten profitieren von einer besseren Performance und...
  9. I

    [SOLVED] Performance comparison between ZFS and LVM

    Here is my best guess. The Kingston SSD is a pretty mediocre, default SSD. It uses an off the shelf Phison controller. So I am pretty sure that it is 4k. Even if it is 512b or 16k internally, the Phison controller was tuned for the default 4k and you won't see much off a difference. In my...
  10. I

    High CPU

    Stuck at what? Loading a Windows setup? RAM usage? CPU usage? So just to get this right, you create a new naked VM, you followed the Windows Server 2025 best practices and try to boot into Windows Server 2025 installation?
  11. I

    High CPU

    Proxmox is mostly Debian, so maybe under /var/logs. These are just wild guesses but my guess would be that your VM has a memory leak, and because of that Proxmox used up all its RAM, ARC had a to low swappiness, and/or since there is no swap file for ZFS the system crashed.
  12. I

    High CPU

    Depends on the OS
  13. I

    High CPU

    Looks like a problem within your VM.
  14. I

    ZFS und verwirrende Angaben bzgl der Größe

    Auch hier müssen wir wieder trennen. Für mein RAIDZ2 HDD NAS mit grossen Dateien ist alles unter 90% hit ratio schlecht in meinen Augen und schreit nach mehr RAM. Einfach weil RAIDZ + HDD keine tolle Performance hat und darum enorm von ARC profitiert. Ich bin da bei 94% hitratio und 64GB. Für...
  15. I

    ZFS und verwirrende Angaben bzgl der Größe

    L2ARC wird vermutlich nix bringen. Bei Blockstorage ist L2ARC noch schwieriger. Würde ich weglassen. Du kannst mal schauen, wie hoch dein ARC hit ratio ist. Oder deine L2ARC hit ratio. Ich werte dies mal als "nein". Gut so. So grundsätzlich hast du halt zwei Arten von Daten. -...
  16. I

    ZFS und verwirrende Angaben bzgl der Größe

    Performance, Kompression, pool geometrie, padding, Metadaten, Einsatz von special vdev um kleine Dateien oder Metadaten zu speichern, die Möglichkeit die Daten im Dataset anzusehen ohne eine Disk mounten zu müssen, von dort Backups nach S3 machen oder rsync... Wie relevant das für dich ist...
  17. I

    ZFS und verwirrende Angaben bzgl der Größe

    Noch ein Einschub. Wenn du die Nextcloud Daten auf einer VM Disk (zvol) speicherst, liegen alle Daten auf einem starren, fixen, 16k blockstorage. Wenn du die Daten aber auf einem Dataset speicherst, liegen alle Daten auf einem variablen record size, der per default 128k als max Obergrenze hat.
  18. I

    ZFS und verwirrende Angaben bzgl der Größe

    Wo hast du denn den boot pool drauf? Ich persönlich finde, am einfachsten wäre es die Installation Platt zu machen und dann zwei mirrors im stripe (RAID10) zu machen. Da bin ich ehrlich gesagt überfragt, aber ich glaube das ist nicht ohne weiteres möglich. Grundsätzlich ist aber RAW auf ZVOL...