Search results for query: PLP

  1. J

    [SOLVED] Trouble Creating ZFS Pool

    That was the plan. These disks are just bulk storage. The containers and vms are going on 1tb ssds in a zfs mirror for redundancy.
  2. leesteken

    [SOLVED] Trouble Creating ZFS Pool

    Run your VM virtual disks on enterprise SSDs with PLP (maybe search the forum about those). I do realize people don't like recommendations that cost (more) money. Maybe use hardware RAID5 controller or RAIDz1 (5x8TB) for large but slow storage, but I don't have experience with this. Or run a...
  3. leesteken

    [SOLVED] Trouble Creating ZFS Pool

    Sure, but the speed especially the IOPS (but also the available space) will be much lower on RAIDZ1 (especially without PLP SSDs) than what people expect from hardware RAID5 (especially with BBU) due to the additional features, safety and write amplification of ZFS. This is fine for data but...
  4. A

    Can partitions of 2 mirrored ext4 boot disks be used as a zfs special device?

    Thanks for your input. But in your case, zfs pool doesn't meet the size requirements, for my case pool size shouldn't be less than 20TB and raid10 size is about 3x6=18 TB whereas raidz2 size is about 6x4=24TB. Sorry I forgot to mention about size requirement. Maybe I should add 2 more hdds for...
  5. UdoB

    Can partitions of 2 mirrored ext4 boot disks be used as a zfs special device?

    ...goodie. After initial setup add a "Special Device". As far as I know this must be done via the CLI. If those SSDs are "Enterprise class with PLP" two of them are enough. If they are cheaper opt for a single tripple mirror. Yes, all three will have the very same content and that's a well...
  6. spirit

    ZFS rpool incredible slow on Mirrored NVMEs

    don't use zfs or ceph on consumer ssd/nvme without plp , performance will always be bad.
  7. M

    3−Node Proxmox EPYC 7T83 (7763) • 10 × NVMe per host • 100 GbE Ceph + Flink + Kafka — sanity-check me!

    ...pinned cores for Ceph, Kafka, Flink and a small Redis instance with no cross-NUMA chatter. Boot – 2 × 480 GB Samsung PM893 SATA (ZFS mirror): PLP-protected, zero PCIe-lane cost. Ceph data tier – 6 × 3.84 TB Samsung PM9A3 U.2 NVMe: three per socket for balanced IOPS and rapid rebuilds. Ceph...
  8. M

    New installation, hardware recommendation

    ...just be aware despite all the good things about zfs it will wear out your ssd's faster than another file system - use enterprise grade ssd's with plp. pve boot tool will "sync" the boot loader onto both ssd's if one die's you can boot from the other, you just have to enable both ssd's in...
  9. R

    Ceph Performance.

    Thanks Markus for your input. Converting the cluster to SSD. Will let you know the outcome.
  10. M

    Ceph Performance.

    ...are the bare minimum and should only be used for testing / evaluation / home labs - hdd's are slow, you should really use ssd's nowadays (with plp, dont use QLC ssd's) - 10Gbit is the bare minimum, every write to disk has to be send over the network to other nodes so this could be your main...
  11. UdoB

    Installation Proxmox, hier Einrichten Hostsystem & Data Storage

    ...Wichtige dazu unter "Austausch einer bootfähigen ZFS-Festplatte" oder so ähnlich - auch wenn das Thema ein anderes ist. Consumer-NVMe haben nie PLP und Enterprise-NVMe/M.2 scheint es nicht viele zu geben. Im Homelab muss man manchmal nicht-empfohlene Kompromisse machen. ECC-Ram und...
  12. U

    Extremely slow performance on ZFS

    Thx will check the thread later. While enterprise ssd would surely help it just doesn't explain the abysmal performance. I have 8 consumer ssds in my main pc as madadm raid6 -> 7000MB/s write speed. There's something wrong when you have virtual disks on a zfs raid in proxmox.
  13. leesteken

    Extremely slow performance on ZFS

    https://forum.proxmox.com/threads/very-slow-vm-on-dell-r620.164605/post-761270 and maybe also use enterprise SSDs with PLP instead of SSDs with QLC flash memory? EDIT: You keep on comparing RAID5/6 with RAIDz1/2, which you should not do as they are entirely different. Please read the thread and...
  14. UdoB

    LVM vs ZFS

    ...die SSD/NVMe verschleißt schneller. Diesem einen Aspekt stehen ein Dutzend positiver Aspekte entgegen. Mit guten Disks ("Enterprise Class", mit "PLP") eliminiert man auch dieses Problem. Weiteres hatte ich mal in englischer Sprache erläutert...
  15. P

    LXC SMB mit ZFS encryption (nur Daten, dedizierte Datenträger)

    ...den langsamen Speichern sind die 0,5 GB/s ok und die Menge an RAM deckt die üblichen use cases gut genug ab. - die Datenträger sind allesamt ohne PLP, das ZFS Risiko Zeitfenster von 5 s scheint mir verkraftbar. Eine USV ist nicht aufstellbar Bei meiner Suche habe ich viele Anleitungen...
  16. UdoB

    Installation Proxmox, hier Einrichten Hostsystem & Data Storage

    ...geschrieben werden, asynchron. Der Datenverlust ist also auf diese kurze Zeitspanne begrenzt. Und dies ist unabhängig vom Vorhandensein der PLP. In diesen (maximal) 5 Sekunden existieren die vorgeblich bereits geschriebenen Daten NUR im ARC (Adaptive-Replacement-Cache), der sich wiederum im...
  17. S

    Installation Proxmox, hier Einrichten Hostsystem & Data Storage

    Dazu noch eine Nachfrage: - Wenn ich SATAIII-Festplatten einsetze, die kein PLP habe und diese im ZFS konfiguriere, wie kann ich bei einem Stromausfall dafür sorgen, dass keine Daten verloren gehen? Wozu benötige ich das „Spezial Device“ (Schreibe /-und Lese Einheit)? Wird dieses Gerät...
  18. UdoB

    [Hilfe] Nach Stromausfall und USV-Versagen alle LVM-Pools nicht verfügbar

    Leider haben die keine PLP, das halte ich für praktisch jeden Server für wichtig - nicht nur für ZFS. Auf Geizhals kann man sehr gut filtern: https://geizhals.de/?cat=hdssd&xf=4643_Power-Loss+Protection%7E4832_1%7E4836_2
  19. A

    Special device redundancy for a raidz2 zfs pool

    Thank you very much guys for your consideration and quick responses..