Write cache kannst du unabhängig von ZFS verwenden. Ich würde aber darauf verzichten.
Völlig legitim. ZFS sollte eigentlich keine merklich schlechtere Performance liefern, trotzdem stimme ich dir zu, IMHO wären viele homelabber mit einem fake...
Wollte mal noch eine Statusmeldung meines Projektes mit einer neuen UGreen DXP 4800 Plus geben.
Zunächst einmal danke für die vielen "Zuschriften". Wie heißt es so schön: Man lernt nie aus.
Ich bin zu dem Ergebnis gekommen, dass TrueNAS...
Ist denn das zvol auf SSDs? Sonst würde ich das nicht machen.
Aber toll läuft es, war mit 99% der CPU Type.
Deine CPU ist ja noch ziemlich neu ist, kannst du auch mal versuchen ab X86-64-v3 oder gar X86-64-v4 startet.
Hi Alle,
also ich habe jetzt folgendes getan und es scheint zu wirken.
Ich habe den CPU Typ auf X86-64-v2-AES gestellt. Ich habe bei den Vituellen HDDs discard und SSD Emulation eingeschalten.
Ich habe KSM Sharing ausgeschalten.
Ich habe das...
@thorsten.franke
häng dich nicht am write back auf. Ich finde es einfach nicht schlau das für eine Windows VM zu verwenden, wenn die vermutlich wichtig ist. Da hätte ich lieber weniger Performance, dafür Sicherheit mit "no cache".
Gleichzeitig...
Warum haben denn beide Maschinen 4 Sockets mit je 8 Kernen? Der Host hat 1 Socket mit 16 Kernen (32x virtuell). Mit der Konfig der beiden VMs hast du dir selbst elend lange CPU-Wartezeiten eingebaut. Stelle mal um auf 1 Socket und 8 Kerne, damit...
Hardware?
SSD Hersteller?
Die VM nutzt also eine disk auf maindata.
Maindata ist ZFS.
Wie ist das ZFS gemacht?
Mirror?
RAIDZ?
Vermute mal den default 16k volblocksize?
Warum hat die VM writeback?
Falls maindata SSD ist, warum kein SSD emulation...
Fang mal mit den Basics an.
Was ist deine Hardware?
Wie ist dein Storage setup (ext4 und ZFS)?
Was ist es für ein Terminalserver, der langsam ist? Welches OS, welche VM configs.
That fact alone would make me reconsider IPv6 for services.
Changing IPv6 prefix, is IMHO (and according to RIPE) a broken IPv6 implementation.
OPnsense can handle that, but Proxmox I am not sure.
I really don't understand why Proxmox uses...
What was the actual fix here?
My home lab/LAN has native IPv6 support. PD from service provider for GUA, ULA configured for local private IPv6 addresses for when the service provider changes the prefix (doesnt happen often but does happen).
All...
Eher nicht. 100% ausgelasteter SWAP auf PVE sorgt eventuell für einen höhere RAM Nutzung, nicht für ein langsames System.
Hingegen könnte ein 100% ausgelasteter RAM in der VM für eine langsame VM sorgen, weil auf SWAP ausgelagert werden muss...
Kommt darauf an, was du unter Standard verstehst.
Hast du beim Installer einfach immer auf weiter geklickt? Hast du eine boot SSD auf der du Proxmox mit ext4 installiert hast und dann hast du mit zwei weiteren SSDs einen ZFS mirror erstellt...
Wo siehst du da einen Zusammenhang? SWAP Auslastung ist nicht davon abhängig, wie viel RAM du frei hast.
Kommt drauf an. Liegt der SWAP auf ZFS oder ext4?
SWAP deaktivieren. Dies verhindert SWAP ;)
Und nicht vergessen: emtpy RAM == wasted RAM
> It looks like the first NVME is downgraded to PCIe3
You will likely get better performance by doing a zpool detach on the 2nd nvme, and re-using it for data / LXC/VM vdisks.
PCIe3 is OK for proxmox boot/root, but you want better I/O for your...
Yes, Linked clone from a template is thin until you start writing to it.
PBS is not aware of the thin nature of the underlying disk. It will do full and incremental backups where appropriate.
The doc snippet you quoted explains exactly why...
Hi guys
I never took the time to create clones or bother with cloud init.
Today I took the time to read up on it and it honestly created more questions than answers.
Also interested in your real world expiriences.
So normally when I need a...