Try to use a virtio device instead of scsi device, install the qemu guest agent within the vm and enable it in the proxmox options.
What kind of pool do you have (hdd or ssd, any kind of software or hardware raid?)?
Hello everybody,
can i actually run both on the same physical hardware?
I would like to setup a proxmox backup server and use it at the same time for some unimportant playground VMs.
Thank you.
Das Problem ist gelöst. Für ein anderes Projekt wurde wohl eine Bridge mit internen IPs und NAT angelegt und dann die iptables MASQUERADE Regel ein wenig zu großzügig angewendet.
Hallo zusammen,
ich habe seit kurzem ein Problem, das die Ursache für diverse andere Probleme zu sein scheint.
Ich habe einen Proxmox Host laufen, der ein Subnetz (Hetzner) folgendermaßen für VMs bereitstellt:
auto vmbr0
iface vmbr0 inet static
address 188.40.xxx.209
netmask...
EVOs survived surprisingly long in one of my testservers (about a year) but one of my clients used them in a high load production system and both disks failed after 6 weeks nearly simultaneously.
The server comes with the Dell Perc and either enterprise nvme SSDs or enterprise sata SSDs.
Obviously no hardware raid with NVMe.
So I guess ZFS Mirror on NVMe would be your favorite?
Hello everybody,
i am building a new server and i am not sure if i want to use a hardware Raid controller (Dell Perc H730P).
One big advantage would be the hotswap capabilities but i am unsure about performance and snapshot features.
Option 1)
A ZFS Mirror with 4*1,92 TB SSDs and the snapshot...
Irgendwas an deinem Setup ist falsch. Ein bisschen Verlust ist immer aber 160 zu 550 kann nicht sein.
Nimm die Platten mal von der Megariad Backplane weg. Die sind für ZFS nicht gemacht und es entstehen komische Effekte.
Für Sata Controller bei ZFS gilt: Je dümmer desto besser, keine Caches...
Für den Privatgebrauch sind vGPU fähige Grafikkarten vollkommen übertrieben.
Das Setup ist aufwändig, funktioniert häufig nur mit explizit dafür freigegebener Software und es ist sau teuer.
Verbau dir halt 1-3 GPUs und reich je nach Bedarf die durch die du brauchst.
Ich versteh den Wunsch nach einer möglichst einheitlichen Serverumgebung total, aber faktisch lösen Raid Controller nun mal ein Problem, das dank moderner Software und schnellen (NVMe) SSds so gar nicht mehr existiert.
Raid Controller sind inzwischen in etlichen Umgebungen der Flaschenhals...
Also mir fällt gerade kein schlauer Grund dafür ein, aber ich kann auch kein Beispiel im Netz finden, bei dem ein LSI 9361 mehr als 2 GB/s beim schreiben erreicht.
Mal anders:
Wieso willst du das Ding überhaupt nutzen?
Ich kann gegenüber einer Lösung via ZFS Mirror eigentlich nur Nachteile...
Moin,
die theoretische Schreibgeschwindigkeit die du da errechnest ist verkehrt, da du einfach nur die SSD Leistung addierst, statt die Flaschenhälse auf dem Übertragungsweg zu beachten.
Beispiel: Der Raid Controller ist im Optimalfall via PCIe 3.0 8x angeschlossen und kann damit Brutto...
Ähem. Ist das nicht einfach nur das normale Caching von Windows das den Ram belegt?
Das ist doch auf der physikalischen Maschine auf der Windows läuft auch nicht anders.
Wenn ich mein Windows 10 einen Tag laufen lasse sind danach ~10 Gb Ram belegt, selbst wenn quasi keine Programme mehr geöffnet...
Das klingt für mich als würde versucht eine Grafikbeschleunigung des PI treibers Zu nutzen, die noch nicht richtig funktioniert.
Kannst du Mal testweise einen anderen Client nehmen?
Update:
Also es scheint relativ simpel zu sein.
How to rename a proxmox volume. How to get unique volume names over several zfs pools. How to solve pve-zsync dataset already exists error.
1) VM Shutdown
2) zfs rename hddtank/vm-101-disk-1 hddtank/vm-101-disk-2
3) Edit...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.