✅ LLMs laufen stabil auf Proxmox mit AMD AI CPUs über die iGPU (Radeon 880M / 890M) via Vulkan
❌ Die AMD XDNA NPU wird aktuell von llama.cpp nicht genutzt
✅ LXC (privileged) ist der beste Weg, nicht VM
---
Motivation
Mit den neuen AMD AI CPUs (z. B. Ryzen AI / Strix) stellt sich für viele...
Before pulling the trigger I wanted to see if anyone was successful with installing pve on this unit and leverage its VGM for LXC, inference workloads. Thanks.