Search results for query: QLC ZFS

  1. Dunuin

    PBS dimensioning

    You can set a backup retention: https://pbs.proxmox.com/docs/prune-simulator/ If it is new data that isn't well compressible and not deduplicatable, yes. PBS needs IOPS performance. 32TB of backups means roughly 16-32 million chunk files (1-2 MB each, max 4MB). GC should be OK with SSD for...
  2. leesteken

    (beginner) NVMe drive setup: will I be stupid?

    raidZ1 will not give you anything near 4TB when using three drives of 2TB. Please search the forum for ZFS raidz padding; you might be better of with a 2x2TB mirror. Also, if you device to buy cheap consumer QLC SSDs, you'll waste your money. Please search the forum about QLC and learn about...
  3. Dunuin

    Storage Layout Question for a beginner

    No, TrueNAS only uses ZFS, disks need to be wiped and ZFS shouldn`t be used on top of a hardware raid and shouldn't be used with SMR HDD (so check that those are actually CMR). It's fine. But dedicated disk for PVE system would be preferable if money, slots and ports doesn't matter. See the...
  4. E

    [SOLVED] Windows VM I/O problems only with ZFS

    Very similar behaviour! But without any host crash. Thank you so much! I'll try in the next hours and post the results!
  5. E

    [SOLVED] Windows VM I/O problems only with ZFS

    I had a similar issue with my ZFS SSDs, even causing my Proxmox host to crash because the host SSD was also ZFS. This happened when a VM caused high write rates that couldn't be synced due to the SSD cache being full. Under Windows, I observed a pattern like a loop (3000 MB/s for 30 seconds...
  6. Dunuin

    Proxmox Cluster mit VM's auf NFS Share

    Spätestens wenn du DBs laufenlassen willst nicht toll was Performance oder Haltbarkeit angeht wegen der fehlenden PLP. Da wärst du dann vmtl auch nicht viel schneller als ein paar HDDs. Ich verweise immer wieder gerne auf das Proxmox ZFS Benchmark Paper (hoffe da kommt bald mal ein neues mit...
  7. Dunuin

    problem with restore

    Maybe your disks or something similar just can't handle the load? Not unusual when for example using SMR HDDs or even cheap SSD (QLC, ZFS on consumer SSDs etc).
  8. Falk R.

    Willkommen im deutschsprachigen Proxmox VE Forum!

    Es kommt auch drauf an, ob du LVM oder ZFS nutzt. Aber eine QLC SSD ist oft die Bremse. Eventuell ist die auch schon recht voll, dann werden die richtig langsam im Schreiben.
  9. Dunuin

    Willkommen im deutschsprachigen Proxmox VE Forum!

    Nur wenn du willst das dir sie SD-Karte ständig kaputt geht und du alle Daten verlierst und alles neu aufsetzen musst (und PVE hat immer noch keinen offiziellen weg den PVE Host selbst zu sichern). Sind mir auch schon zwei 120GB Intensos weggestorben. Aber ja, kann man machen, würde dann aber...
  10. Dunuin

    [SOLVED] Nach Ersetzen einer SSD nicht mehr alle Partitionen im Mirror

    Ja, aber du hast vielleicht 1/3 der Schreib-Performance und Haltbarkeit im Vergleich zu TLC Consumer SSDs die vielleicht 10% mehr in der Anschaffung kosten. Ist dann eher eine Milchmädchenrechnung wenn man zu den QLC SSDs greift um die paar Euro zu sparen. Wen du meinst das reicht dir, dann ist...
  11. Dunuin

    [SOLVED] Nach Ersetzen einer SSD nicht mehr alle Partitionen im Mirror

    Mit dem "zpool detach" Befehl die falsche Disk entfernen. Dann der Anleitung "Changing a failed bootable device" folgen: https://pve.proxmox.com/wiki/ZFS_on_Linux#_zfs_administration Im übrigen sind deine SSDs nicht wirklich für ZFS geeignet. Da sollte man Enterprise SSDs mit power-loss...
  12. Dunuin

    Question about maintenance

    Thats a terrible SSD for use with ZFS (and terrible in general because except for the old 120GB versions it uses QLC NAND).
  13. Dunuin

    Looking for advice on how to configure ZFS with my drives and use case

    When adding the SSD as as normal VDEVs and not as "special", "log" or "cache" vdevs to the pool with the HDDs it will be a stripe. So it will write some MBs to the SSD, then some MBs to the HDDs, then some MBs to the SSDs and so on. You basically slow down your SSDs down to HDD performance...
  14. Falk R.

    Errors fehler ZFS Errors SSD raidZ2

    Quad Cell SSDs sollten eh nie mit ZFS benutzt werden und am besten keine RaidZ bei VMs, lieber im Mirror. Durch die Write Amplification (zu dem Stichwort gibts viele Threads) schreibst du in kürzester Zeit die SSDs kaputt und die Leseperformance ist bei QLC auch nicht so prickelnd. QLC ist...
  15. Neobin

    Errors fehler ZFS Errors SSD raidZ2

    Keine QLC-NAND SSDs verwenden. Ausschließlich SSDs mit PLP (und mindestens TLC-NAND), insbesondere für ZFS, verwenden. https://forum.proxmox.com/search/6126988/?q=ZFS+QLC&t=post&o=date https://forum.proxmox.com/search/6126990/?q=ZFS+QVO&t=post&o=date
  16. leesteken

    LXC very slow, PVE high io delay

    With ZFS you would get write errors and QLC drives would be next to impossible to use. With ext4 and LVM you get very slow writes (down to KB/s) when the drive does not go idle often enough. They can be used but are terrible for virtualization with multiple systems (VM/CT) worth of IO...
  17. S

    LXC very slow, PVE high io delay

    Installed iotop. See attached file with screenshot. It dows show my database process and my script, but I consider overall load to be quite low.
  18. S

    LXC very slow, PVE high io delay

    I don't use ZFS, only LVM and EXT4. And I consider writes < 1 MB/sec not being heavy. :-(
  19. leesteken

    LXC very slow, PVE high io delay

    SSDs with QLC flash memory (like yours) can become much slower that spinning HDD under heavy/constant writes. Lots of issues when used with ZFS (for example) can be found on this forum.
  20. Dunuin

    Which drives to chose for OS installation - Hetzner's 4 drive server

    Good idea but keep in mind that it is high recommended to: A) use ECC RAM B) use enterprise/datacenter grade SSD with power-loss protection C) not to use QLC SSD D) not to use SMR HDDs E) not to use HW raid card but a dumb HBA or onboard ports And that ZFS is about data integrity not about...