llm

  1. M

    LLMs auf Proxmox mit AMD AI CPUs (Strix): iGPU funktioniert – NPU aktuell nicht

    ✅ LLMs laufen stabil auf Proxmox mit AMD AI CPUs über die iGPU (Radeon 880M / 890M) via Vulkan ❌ Die AMD XDNA NPU wird aktuell von llama.cpp nicht genutzt ✅ LXC (privileged) ist der beste Weg, nicht VM --- Motivation Mit den neuen AMD AI CPUs (z. B. Ryzen AI / Strix) stellt sich für viele...
  2. E

    Any success with GMKtec EVO-X2 LXC GPU sharing?

    Before pulling the trigger I wanted to see if anyone was successful with installing pve on this unit and leverage its VGM for LXC, inference workloads. Thanks.