Jetzt habe ich die Startreihenfolge der VMs geändert und der besagten VM order=1 zugewiesen.
Nach einem Neustart des PVE Servers startet diese VM nun mit aber eine andere VM startet nicht obwohl in der WebGui Start OK steht
Die Option ist aktiviert. Im Task log zeigt er sogar an dass die Maschine erfolgreich gestartet wurde.
Mir ist gerade aufgefallen dass die virtuelle Disk der C-Partition auf local-zfs und nicht wie die anderen virtuellen Disks der VM auf meinen zfs Storage war.
Ich habe die virtuelle Disk jetzt...
Der Gast Agent ist aktiviert, im Gerätemanager sind keine unbekannten Geräte vorhanden. (Guest Agent ist installiert so wie auch vioserial)
Ein Herunterfahren über die WebGui funktioniert ja auch.
Hallo,
ich habe auf meinem PVE Version 6.2.12 mehrer VMs laufen.
Bei allen VMs habe ich den Qemu Gast Agent installiert.
Ein Shutdown oder Reboot der VM über die Webgui funktioniert auch.
Nach einem Rebbot des PVE Servers startet aber diese eine VM nicht.
Auch scheint das Herunterfahren dieser...
Ist die Replikation in meinem Szenario empfholen bei 3 PVEs im Cluster jeder mit eigenem ZFS Storage?
Ich müsste da ja die VMs von PVE01 auf PVE02 und PVE03 replizieren. Wie groß sollte das Replikationsintervall sein?
Und ich bräuchte entsprechend mehr Speicherplatz um die replikate aufzunehmen...
Hallo Fabian,
ja richtig, erweitern möchte ich storage nicht rpool.
Um die Daten auszugleichen könnte ich also auch einfach mal die Festplatten der virtuellen Maschinen von storage auf rpool verschieben und wieder zurück? Oder VMs innerhalb meines PVE Clusters hin- und her migrieren?
Grüße Sven
Hallo,
ich habe ein ZFS Pool mit 4 SSDs und 2 Mirrors:
Nun möchte ich den Pool um zwei weiteren SSDs erweitern und somit ein RAID 10 mit 3 Mirrors erstellen.
Ist es richtig, dass die Daten der vorhandenen VMs nicht gleichmäßig auf alle 3 Mirrors verteilt werden, sondern auf den vorhandenen...
Hallo,
ich habe 3 Nodes mit identischen CPUs: Intel(R) Xeon(R) Silver 4216 CPU @ 2.10GHz
Ich nutze die Migrationsfunktion von Proxmox um Vms dynamisch zwischen den Nodes zu migrieren.
Da alle Host Systeme die gleichen CPUs versenden, könnte ich doch in der VM als CPU Typ Host eintragen.
oder...
Stimmt, die VM lag aber definitiv auf PVE02 und sollte von dort aus migriert werden.
Ich hatte gestern alle 3 Nodes einmal neugestartet.
Jetzt funktioniert es.
Hallo,
ich versuche in meinem Cluster eine VM von PVE02 auf PVE01 zu migrieren und erhalte folgende Fehlermeldung:
2020-03-03 16:17:19 use dedicated network address for sending migration traffic (192.168.111.203)
2020-03-03 16:17:19 starting migration of VM 124 to node 'pve03'...
Ja, ich kann damit leben. Die Maschine läuft und Anwendung die ich aus Pflichten der Archivierung noch bis Ende des Jahres zur Vergung stellen muss läuft auch.
Hallo,
ich habe eine Windows XP Maschine erfolgreich in Proxmox virtualisiert.
Virtio Treiber für Festplatte und Netzwerkkarte sind auch installiert.
Im Gerätemanager werden mir jetzt noch ein paar Fragzeichen für
- PCI Device
- Unbekanntes Gerät
- Videocontroller VGA
angezeigt. (Siehe...
Rein über die Pproxmox Gui geht das leider nicht, da innerhalb des Clusters der Storage Name nur einmal vergeben werden darf.
Ich hab dann auf Shell Ebene für jeden Node den zfs Pool mit gleichen Namen erstellt.
Ich nutze schon seit längerem Veeam Agent für Windows in der freien Version und mit damit sehr zufrieden. Ich werde ab demnächst die kommerzielle Version Backup and Replikation für mehrere Server nutzen. Innerhalb der Proxmox VMs muss dann der Veeam Agent installiert werden. Für Veeam sind das...
OK, dann ahben wir auch die Frage auch gesolved :)
By the way, Danke für den tollen Support hier im Forum von den Mitgliedern und den Proxmox Staff Members
Ok, ist gelöst.
Man kann in der Date /etc/pve/datacenter.cfg einstellen über welche Netzwerkkarte die Migration laufen soll:
migration: network=192.168.111.0/24
Wie kann ich den thread als gelöst markieren?
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.