Search results for query: QLC ZFS

  1. M

    Backups Scheitern an Buffer I/O

    Ich habe gesagt und begründet, dass (und warum) Consumer-SSDs für den Betrieb mit ZFS, speziell mit kleinen (d.h. default) Blockgrößen und für virtuelle Images (speziell mit Snapshots) ungeeignet sind. Ferner habe ich gesagt, was die Bedingungen sind, die einer Abnutzung der SSDs entgegenwirken...
  2. M

    Backups Scheitern an Buffer I/O

    Was viel naheliegender als die Consumer-Festplatten in dem Raiddrive Pool ist, ist dass die NVME CT1000P3SSD8 im rpool eine Crucial P3 ist, also ein Consumer-Laufwerk mit QLC NVRAM. Da frisst sich ZFS durch wie durch Butter, was den Fehler auch sehr gut erklärt - der Fehler ist ja dort, nicht...
  3. E

    [SOLVED] Backup: mount error(16) - was tun?

    1. xfs oder ext4 (verwende ich) verwenden 2. Bei der Installation kann man das Dateisystem wählen 3. Der Datenträger fällt nach kurzer Zeit aus. Wegen der geschriebenen Datenmenge wird auch die Garantie meist abgelehnt .. Das Forum ist voll mit Beiträgen, dass man zfs nur bei Server-Datenträger...
  4. leesteken

    PVE on Ryzen 3200G and low guest desktop experience

    You only have 16GB of memory on your Proxmox host. Please tell me you are not running both VMs with 12GB at the same time (==24GB). You are also giving each VM the same number of virtual cores as the real hardware. Please keep one or two cores for Proxmox and virtualization overhead. Don't count...
  5. leesteken

    How to avoid an other pve kernel: Out of memory ?

    That's not related to storage type, so I still don't understand. I mean that you are not using enterprise SSD with PLP but are probably using a consumer QLC SSD drive. I think 512MB or 1GB is enough but just test it yourself for your workload. Since you stated that the minimum for the VM is...
  6. G

    Very slow nvme speeds on Windows Server 2022 VM

    Set VM Disk "Cache" to Default (None) , Write cache can be the bottleneck, moreover on consumer SSD, even more with QLC SSD like your. VM Disk "Async IO" to native should help too. ZFS will wear out this QLC SSD, moreover with SQL, because of write amplication.
  7. Falk R.

    ZFS raid 10, SSD's tauschen

    ZFS mit mehreren VM entspricht Serverworkload. Also mehr als ein einzelner PC. Das glaube ich nicht. Es gibt QLC als Enterprise schon seit Jahren, aber bisher nur in Archivsystemen. Rate mal warum.
  8. Toxik

    ZFS raid 10, SSD's tauschen

    Nun ja, ich hätte zu QLC das Gleiche gesagt, aber zu den 870 QVOs finde ich gerade: Lesen 560MB/s Schreiben 530MB/s SLC-Cached (160MB/s QLC) Cache 2GB (LPDDR4), SLC-Cache (dynamisch bis 78GB) Und diesen Test, der zumindest in seinem Rahmen bestätigt, dass es nicht totale Gurken sind...
  9. R

    Please help me solve high IO delay

    Hi, i search for the technology used in these drives, its not that clear but it seems to be qlc (http://www.madshrimps.be/articles/article/1001277/Patriot-P210-2TB-2.5-SSD-Review/2#axzz8ry0ZAeNQ) WITHOUT any ram. If you look at the performance test of this site...
  10. B

    Non-constant copy speed

    The exact name of the disks is Toshiba NAS N300 HDWN180. And according to a quick google search, these shoult be CMR. That would be okay, right? Yes, at the moment the disks are still connected to the HPE Raid Controller. I only deleted the array. I can try connecting the disks directly. No, so...
  11. leesteken

    Non-constant copy speed

    It was just a guess as there was no information to rule SMR or QLC out. Are the drives still connected to the RAID-controller? It is recommended to not use a hardware RAID-controller with ZFS: https://pve.proxmox.com/pve-docs/pve-admin-guide.html#_hardware_2 If you are having the same problem...
  12. B

    Non-constant copy speed

    Hi leesteken Thank you very much for your quick reply. I use the NAS N300 4 TB disks from Toshiba. Do you really think it is the combination HDDs + ZFS? Because yesterday I had the same behavior when I made the RAID 10 with my hpe smart array p408i-a sr gen10 controller. And wouldn't it have...
  13. leesteken

    Non-constant copy speed

    What drives (make and model) are you using? QLC flash and SMR harddisks slow down on sustained writes and need idle time to recover. There is more than one thread on this forum that warns against using them for VMs (especially with ZFS).
  14. Falk R.

    Powerloss Protection (PLP) Mythos

    Dann hast du dich nie mit der Technik befasst. ;) Also ganz einfach. Wir nehmen mal eine TLC SSD (bei QLC wird alles nur schlimmer). Wenn du deine Daten auf deine SSD schreiben willst, dann müssen 3 Bit auf die Zelle geschrieben werden, was relativ langsam ist. Daher nutzen Consumer SSDs die...
  15. Falk R.

    ESXi 6.0 zu Proxmox Migration - Setup und Hardwarefragen

    Da hast du aber die Rechnung ohne den Cache Algorithmus des SSD Herstellers gemacht. Die TB Written welche vom Hersteller angegeben werden sind reiner TLC/QLC Traffic. Damit die Schreibraten nicht unter HDD Niveau fallen, werden die Zellen wie SLC beschrieben, als Cache. Dann wird umkopiert. Bei...
  16. I

    ESXi 6.0 zu Proxmox Migration - Setup und Hardwarefragen

    Hätte ich nicht so gemacht. Ich würde VMs ausschließlich auf SSDs installieren, weil niemand will mit Schnarchnasen VMs auf klassischen Festplatten noch arbeiten. (Ich lache immer über die Spinner, die heute noch 7.000 € Server mit teurem RAID Controller und klassischen SAS Platten machen. An...
  17. Y

    Windows 11 VM IO drops to 0Mbit

    I finally got around to buying a new pair of SSDs -- Kingston KC600 1TB TLC. I've heard that they should be good drives, and if I am not mistaken they have also been recommended by Jim Salter on the 2.5Admins podcast. However, while the experience did improve with much fewer lock-ups and overall...
  18. D

    ZFS raid 10, SSD's tauschen

    Kommt noch ...
  19. Falk R.

    ZFS raid 10, SSD's tauschen

    Am einfachsten ist bei den langsamen Dingern ein Backup zu machen und dann Restore auf vernünftige SSDs. QLC SSDs und ZFS ist das tödlichste was du tun kannst. Da schreibt ein USB Stick schneller. Ein Backup, also rein read sollte vernünftig funktionieren.
  20. A

    "HA-Cluster" nur mit Hosts

    Kurz gesagt: Ceph nutzt zur Speicherung OSDs. Eine OSD ist ein Dienst, wobei einer pro Festplatte gestartet wird. Die Standardkonfiguration ist: - Failure domain ist host. Dadurch wird sichergestellt, dass mehrere Repliken nicht auf OSDs des gleichen Hosts landen. - Ein Pool hat 3 Repliken...