Search results

  1. I

    ZFS - shifting ARC to L2ARC

    I would want to emphasize few points: This is especially relevant for Proxmox, since by default you will only with the small default 16k volblocksize. Instead of having a huge RAW VM disk, that is a pita to backup and has a 16k volblocksize, you could also create a dataset with 1M record...
  2. I

    ZFS - shifting ARC to L2ARC

    Don't worry, that rule is old and bad and useless. Proxmox will by default just use max 10% of your RAM. So if you have 32, that is 3,2. Depends on the use case. L2ARC will just store things that evicted ARC. So if your ARC has a hit ratio of +90%, I would say no L2ARC at all. Good thing about...
  3. I

    Guest agent not running on Windows 11

    Today I had the issue again with 0.1.271. The strange thing is that it has a clean exit code. C:\Windows\System32>sc qc QEMU-GA [SC] QueryServiceConfig ERFOLG SERVICE_NAME: QEMU-GA TYPE : 10 WIN32_OWN_PROCESS START_TYPE : 2 AUTO_START...
  4. I

    Performance Probleme

    Einverstanden Das glaube ich hingegen nicht. AFAIK ist die record size zwar generell wie du richtig erwähnt hast eine max Variable, ABER die record size kann für ein einzelnes File nicht variabel sein. Ein File als 1MB + 16k record zu speichern ist also AFAIK nicht möglich. Es müssen zwei 1MB...
  5. I

    Performance Probleme

    Das ist IMHO falsch. Angenommen dein recordsize ist 1M. Ein chunk kann von 4MB auf 1.1M komprimiert werden von PBS. Nun müssen zwei 1M records angelegt werden, sprich 2M storage mit compression off. Mit LZO wären es nur 1.1M gewesen. Gibt eigentlich fast nie einen Grund, LZ4 bei ZFS nicht...
  6. I

    Guest agent not running on Windows 11

    Today I had the issue again with 0.1.271. It is a lot less often than with 0.1.285 (this has been running fine since 24. Nov), but the underlying issue seems still be there. Even rebooting did not help. I had to go to services and start guest agent. And then I needed to do another reboot so...
  7. I

    NFS mount on PVE 8 or PVE 9 keeps needing different ports to be accessible.

    Sorry, I don't really know. This is just a guess: according to mountd -p num or -P num or --port num Specifies the port number used for RPC listener sockets. If this option is not specified, rpc.mountd will try to consult /etc/services, if...
  8. I

    NFS mount on PVE 8 or PVE 9 keeps needing different ports to be accessible.

    Not the question you are asking, so sorry for derailing it, but why don't you just simply put the PVE or at least one interface of PVE into the same VLAN? You don't really gain anything in terms of security, and everything has to go through the firewall.
  9. I

    NAS UGreen DXP4800 Plus

    Du vermischt hier zwei verschiedene Themen. Das eine ist ZFS dedup. Die dedup Table kann heutzutage auf svdev (also SSD) ausgelagert werden und muss nicht mehr im RAM sein. Das andere ist dedup mit PBS. Das braucht so ziemlich gar nix an RAM. Allerdings is halt PBS ein blockstorage Backup...
  10. I

    NAS UGreen DXP4800 Plus

    Write cache kannst du unabhängig von ZFS verwenden. Ich würde aber darauf verzichten. Völlig legitim. ZFS sollte eigentlich keine merklich schlechtere Performance liefern, trotzdem stimme ich dir zu, IMHO wären viele homelabber mit einem fake RAID wie Unraid oder SnapRAID besser bedient als mit...
  11. I

    Hohe SWAP Auslastung

    Ist denn das zvol auf SSDs? Sonst würde ich das nicht machen. Aber toll läuft es, war mit 99% der CPU Type. Deine CPU ist ja noch ziemlich neu ist, kannst du auch mal versuchen ab X86-64-v3 oder gar X86-64-v4 startet.
  12. I

    Hohe SWAP Auslastung

    @thorsten.franke häng dich nicht am write back auf. Ich finde es einfach nicht schlau das für eine Windows VM zu verwenden, wenn die vermutlich wichtig ist. Da hätte ich lieber weniger Performance, dafür Sicherheit mit "no cache". Gleichzeitig beantwortet es nicht, warum du LSI anstelle von...
  13. I

    Hohe SWAP Auslastung

    Hardware? SSD Hersteller? Die VM nutzt also eine disk auf maindata. Maindata ist ZFS. Wie ist das ZFS gemacht? Mirror? RAIDZ? Vermute mal den default 16k volblocksize? Warum hat die VM writeback? Falls maindata SSD ist, warum kein SSD emulation, warum kein discard? Guest Agent läuft? Warum...
  14. I

    Hohe SWAP Auslastung

    Fang mal mit den Basics an. Was ist deine Hardware? Wie ist dein Storage setup (ext4 und ZFS)? Was ist es für ein Terminalserver, der langsam ist? Welches OS, welche VM configs.
  15. I

    Proxmox Not Automatically Assigning IPv6 via RA/DHCPv6

    That fact alone would make me reconsider IPv6 for services. Changing IPv6 prefix, is IMHO (and according to RIPE) a broken IPv6 implementation. OPnsense can handle that, but Proxmox I am not sure. I really don't understand why Proxmox uses their own defaults in the webGUI or why at least they...
  16. I

    Hohe SWAP Auslastung

    Eher nicht. 100% ausgelasteter SWAP auf PVE sorgt eventuell für einen höhere RAM Nutzung, nicht für ein langsames System. Hingegen könnte ein 100% ausgelasteter RAM in der VM für eine langsame VM sorgen, weil auf SWAP ausgelagert werden muss. Ohne genauen angeben deines System, deines Problems...
  17. I

    Hohe SWAP Auslastung

    Kommt darauf an, was du unter Standard verstehst. Hast du beim Installer einfach immer auf weiter geklickt? Hast du eine boot SSD auf der du Proxmox mit ext4 installiert hast und dann hast du mit zwei weiteren SSDs einen ZFS mirror erstellt? Dann wäre SWAP nicht auf ZFS sonder, auf der boot...
  18. I

    Hohe SWAP Auslastung

    Wo siehst du da einen Zusammenhang? SWAP Auslastung ist nicht davon abhängig, wie viel RAM du frei hast. Kommt drauf an. Liegt der SWAP auf ZFS oder ext4? SWAP deaktivieren. Dies verhindert SWAP ;) Und nicht vergessen: emtpy RAM == wasted RAM
  19. I

    Performance Probleme

    Das Forum hier ist community support. Für Support vom Proxmox Support Team gibts es das Kundencenter. Dort kann ein Ticket eröffnet werden.
  20. I

    [SOLVED] clones? Or Cloud Init?

    Wow, one single response that answers all my questions :oops: Thank you so much for taking the time to answer! It is highly appreciated!