Danke für die ausführliche Antwort.
Leider funktionieren die Kommandos nicht/nicht mehr/noch nicht unter Windows Server 2022.
Die Konfiguration der VM sieht jetzt wie folgt aus.
qm config 100 | egrep 'cpu:|sockets:|cores:|numa:|affinity|numa0'...
Ab Kernel 6.14 wurde der Intel-Scheduler umgebaut (wie @Falk R. schon erwähnte). Bei Dual Xeon führt das zu:
Falscher Zuordnung von Threads zu L3-Domains
Häufiger Migration zwischen NUMA-Nodes
Unnötig viele „wakeups“ auf entfernten Nodes
Memory...
du hast 24.72 GB von 16GB zugewiesen. daher kommt der fehler von wegen cant allocate memory.
du kannst speicher nicht überbuchen.
reduzier das auf etwas, das in deine 16GB vom Host reinpasst, dann sollte es klappen.
24GB sind sowieso krass für...
Was hier auch zur Sprache kam und ich auch mehrfach beobachtet habe, die iSCSI Performance ist bei All Flash Arrays verschiedener Hersteller schlechter als bei VMware. VMware hat da etwas mehr Hirnschmalz ins Tuning gesteckt und im Linux Kernel...
ist halt so - wenn du selber scheisse baust, ist es einfach jemand anderen zu blamen bzw. dir die realtität passend zurechtzubiegen, anstatt zu reflektieren oder zurückzuruden. in unserer gesellschaft hat man damit sogar zunehmend erfolg -...
Die CPU des Hosts ist ja nur eine 12Core CPU und du hast 24 Cores der VM zugewiesen.
Was passiert denn, wenn du der VM nur 12 Cores gibst?
Lastet die VM denn die CPU so sehr aus, dass die tatsächlich 24 Cores benötigt?
Ich weiß, dass der CPU...
>Das ist doch gar nicht der Punkt. Ich finde es völlig legitim, docker in lxcs zu benutzen, wenn man sich der Problematik bewusst ist und den
>damit verbundenen Folgen (Ausfall von Diensten, troubleshooting etc) leben kann. Mein Eindruck ist...
Da dort "nur" ein IIS läuft, könntest du mal versuchsweise eine neue VM mit IIS aufsetzen und die Daten rüber packen zum testen? Ich vermute das Problem irgendwo im Windows.
Hi Falk,
habe hierzu eine Lösung gefunden und dieses in einem eigenen Thread erklärt: https://forum.proxmox.com/threads/netzwerksettings-bei-der-migration-von-windows-vms-zu-pve-%C3%BCbernehmen.175997/
Also meine VM mit den Docker Containern ist gar nicht so verschwenderisch auf dem kleinen Atom Prozessor. Wenn der kleine Kernel zu viel ist, dann ist die Kiste etwas knapp bemessen. Warum soll ich eigentlich nur inkrementelle Backups vom LXC...
Das macht ja nix, der Wechsel auf NVMe over TCP geht ja über die gleichen Adapter und dann einfach die VMs von der alten LUN auf den neuen Namespace moven. Ich habe schon mehrere Powerstore so umgebaut, dass die gleiche Hardware jetzt deutlich...
This is something I need to look into as well, I had requested the maintainers of the Pure plugin to add NVMe/TCP, but I'm not sure if it went past the skeleton framework. It has been implemented in the TrueNAS Storage plugin, so it actually...
Hast du deine Pure gespiegelt oder nur eine?
Wenn gespiegelt, dann ist das mit iSCSI OK, aber bei einer Single Pure hätte ich statt iSCSI besser NVMeoF genommen.
Ist wesentlich einfacher zu konfigurieren als iSCSI und du brauchst kein Multipath...
NUMA an sich wird hier nicht das Problem sein. Eher die Kombo aus Virtio-Queues über beide Nodes, dem default schlechteren Verteilen von IRQs unter Windows (Linux VMs machen das effizienter), höhere Latenzen durch den 6.14er Kernel und das alles...
Die Snapshot Option für shared LVM ist ja noch experimental, daher ist es schon möglich, dass da unbekannte Effekte auftreten.
Ich bleibe vorerst Produktiv bei nur LVM ohne Snapshotfunktion.
Genau dein geschildertes Problem, mit vergessen das da...
Wenn ich nichts falsch verstanden habe: Da die linked clones nur über die Disk Images mit dem Template verknüpft sind, könntest du die Disks der VMs (temporär) auf ein anderes Storage schieben (Disk Action -> Move Disk). Dadurch wird der gesamte...