Search results

  1. I

    Write amplification for OS only drives, zfs vs btrfs

    You guys are IMHO way overthinking it. Consumer NMVE in a ZFS mirros are even fine for boot +10 VMs, let alone for boot alone.
  2. I

    Data HDD voll ?

    Das ist eine veraltete Regel, die für HDD und deren free space fragmentation performance basierte. Die Regel war damals schon eher so mäh. Was für ein RAID hast du genau? Vermute mal CT Volumes. Was siehst du dort in Bild 2?
  3. I

    Proxmox lässt sich nicht installieren

    Vielleicht was krumm gelaufen beim erstellen des Sticks? Den mal neu machen? Secure boot kannst du aktiviert lassen, Proxmox kann es seit 8.1
  4. I

    Ist das verwenden der boot disk als datastore nicht vorgesehen?

    Mit Datenblatt meinst du vermutlich sequenzielles schreiben grosser Dateien. Das halt ich für den Workload auch für irrelevant. DRAM kann bei beiden gleich gut sein (für async writes) und sollte nix mit PLP zu tun haben. PLP ist ja nix anderes als den volatilen DRAM mittels Kondensatoren zu...
  5. I

    Ist das verwenden der boot disk als datastore nicht vorgesehen?

    PLP SSD beschleunigt keine async writes, jedenfalls nicht zwangsläufig besser als der Cache einer nicht PLP drive. Bei PBS hast du AFAIK nur async writes.
  6. I

    Is the new ARC limit a waste of empty RAM for most users?

    That is probably a leftover of the old TrueNAS rule, that was never really that good. TrueNAS replaced that rule with "minimum 16GB" and then later on even to "minimum 8GB". You are right, forgot about that (new?) max value. That wasn't implemented with the old 50% setting, right? Makes the...
  7. I

    Proxmox hinter Aruba Trunk

    Verstehe den Netzwerkaufbau leider nicht wirklich und bräuchte eine Zeichnung. Aber vielleicht hilft dir das: Meine bridge config von Proxmox sieht exakt genau gleich aus. Was ich aber nicht rausgefunden habe, ist ob Proxmox eine Art Definition des Management VLANs zulässt. Das Proxmox GUI...
  8. I

    Is the new ARC limit a waste of empty RAM for most users?

    So you guys have problems with ARC (not with TXG) shrinking fast enough? Never had an issue an my 3 machines, but good to know that this might become an issue.
  9. I

    Is the new ARC limit a waste of empty RAM for most users?

    That one I can understand and IMHO deserves another topic. I think it would be probably better to not show ARC in the dashboard. Or at least not in that aggressive red way. Windows Task manager does this in a good sneaky way. Cache uses (just like free space) white as background color. Only a...
  10. I

    Is the new ARC limit a waste of empty RAM for most users?

    Help me understand the new ARC limit default of 10% instead of 50%. The only OOM scenarios, where unshrinkable TXG is a problem, I can come up with are: A: System with 32GB RAM and 10GBit NIC. 10% instead of 50% limits TXG to 3.2GB instead of roughly 5.8GB (limit is not ARC settings but...
  11. I

    ZFS ARC compared to linux page cache.

    Nice writeup, but I am still uncertain about some parts. By default, Proxmox has no SWAP, when installed on ZFS. To me, this makes sense, since swapping to a CoW FS probably isn't great. Slow, unnecessary TBW. Since the SWAP disk of a VM is on the RAW disk, which is in return on the ZFS of...
  12. I

    [SOLVED] Windows VM becomes unresponsive when copying files from TrueNAS VM

    100mb of free RAM is a good thing! Empty RAM is wasted RAM! All modern OS do use empty RAM as cache in some form or another. They just hide it better. MS uses white for cache in the task manager, macOS only talks about "memory pressure". My guess would be that linux (?) bridge in Proxmox? And...
  13. I

    [SOLVED] Windows VM becomes unresponsive when copying files from TrueNAS VM

    Nothing is unusual when you virtualize stuff, that should run bare metal instead ;) I am not sure if I understand what you wrote, but 50% or 8GB in your case, is already the default for SCALE installations, even without tweaks. I think this here explains it well. Write performance of your...
  14. I

    Hardware Frage

    Damit möchte ich nicht einen Server laufen lassen ;) Die CPU Performance würde eventuell sogar ausreichen. Wie du bereits richtig gesagt hast, bei vielen Server ist IO der Flaschenhals und der wurde dank SSD weniger dramatisch. Was ich bei kleinen Unternehmen häufig sehe sind idlelnde Windows...
  15. I

    Yet another "ZFS on HW-RAID" Thread (with benchmarks)

    I would not say it is dangerous per se, I only think it adds an unnecessary point of failue. Simply because it is added hardware. Sure, the same thing is true for an HBA card, but not to the same extent, since it is less complex. But my personal money quote from the linked blog post on how HW...
  16. I

    Hardware Frage

    Mach doch einen neuen post und beschreibe dort dein Setup und Wünsche ;)
  17. I

    Hardware Frage

    Ups, und ich habe erst jetzt gecheckt, dass du nicht OP sondern ein hijacker bist :)
  18. I

    Hardware Frage

    wait what? erst waren wir bei einer 1TB Windows Server VM und jetzt bei 10TB? Sind das files oder VM disks? Files sind generell auf einem dataset besser aufgehoben (weil flexibler record size) das ist aber nochmals eine ganz andere Baustelle. Warum soll denn eigentlich überhaupt umgezogen...
  19. I

    Hardware Frage

    Viel wichtiger als Performance, finde ich die Tatsache, dass es in vielen Fällen NICHT zu wesentlich mehr Speicher führt als ein mirror. Siehe Speichertabelle hier: https://github.com/jameskimmel/opinions_about_tech_stuff/blob/main/ZFS/The problem with RAIDZ.md#volblocksize-16k oder bisschen...
  20. I

    Datastore mit Festplatten

    Bin während der Recherche über diesen alten Thread gestolpert. Bei der höheren record size verspreche ich mir nicht unbedingt eine bessere Kompression, aber bessere metadaten performance. 1M vs der default 128k wäre ja 8x weniger metadaten für ein special vdev. Bei 4M sogar 32x. Da wird der...