Hallo Alwin,
Das BAckup wurde manuell gestartet und nach ca. 10% abgebrochen weil ich auf dem falsch Volumen gespeichert habe.
storage.conf
dir: local
disable
path /var/lib/vz
content vztmpl,iso
shared 0
lvmthin: local-lvm
disable
thinpool...
Hallo,
Ich habe die letzten Tage auf die aktuelle Version aus dem Enterprise Repo aktualisiert und habe folgendes festgestellt:
Wenn man einen laufenden Backupjob abbricht bleibt die VM gelockt und ist auch nach einiger Zeit nicht mehr ansprechbar.
Backupmethode Snapshot.
Die täglichen Backups...
Hallo,
Wir nutzen schon sehr lange openvswitch und hatten dmit noch nie Probleme:
Hier mal meine Konfiguration:
auto lo
iface lo inet loopback
allow-hotplug eno49
allow-hotplug eno50
allow-hotplug eno51
allow-hotplug eno52
allow-hotplug eno53
allow-hotplug eno54
allow-hotplug eno55...
Hallo,
Wir haben VM's welche einen COM Port brauchen.
In der 5.4 haben wir im Configfile dazu einen Eintrag serial0: /dev/xxxx
Das Device taucht im Gast auf und funktioniert.
Unter 6.0 funktioniert zwar der Serielle Port in der VM noch, ich komme jedoch vom Proxmoxinterface nicht mehr mit...
Hallo,
Ich kann aktuell einem Cluster keine VM's mehr starten.
Fehlermeldung: "cannot allocate memory".
Das System hat 128GB RAM, davon sind etwa 40% von VM's belegt.
Allerdings ist die Cachegröße immens, so das nur noch zwei GB RAM frei sind!!!
Kann man irgendwie die Cachgröße limitieren...
OK, das PCI device habe ich deaktiviert. Damit kann ich die Maschine zwar starten, aber die zweite startet dann nicht mehr. Die startet mit den eingeschalteten PCI Device und belegt dann neben dem USB HOST den IRQ 16.
Scheinbar wollen die Karten alle auf den Interrupt 16.
Kann man das irgendwo...
Danke Dominik,
Die eine Karte ist eine PCI Karte, da werde ich gar keine andere bekommen.
Ich muss mal googeln wie man das betreffende Gerät deaktivieren kann. Ist ein USB Hostkontroller.
Peter
Hallo Dominik,
Hier der Output einer VM welche nicht startet:
kvm: -device vfio-pci,host=02:00.0,id=hostpci0,bus=pci.0,addr=0x10: vfio error: 0000:02:00.0: failed to setup INTx fd: Operation not permitted
TASK ERROR: start failed: command '/usr/bin/kvm -id 101 -name dz-v-ids002 -chardev...
Hallo Dominik,
Ich brauche jeweils pro Host drei VM's. Wobei eine zwei PCI Geräte und die anderen beiden jeweils 1 PCI Gerät durchreichen müssen.
Die Fehlermeldungen betreffen das jeweilige PCI Gerät. Failed to setup INTx fd: Device or resource busy
Zwei VM starten meistens, bei der dritten...
Hallo,
Ich benötige eine VM bei der ich mehrere PCI Karten durchreichen muss.
Aktuell laufen diese Systeme mit Xen.
Möchte gerne nach Proxmox migrieren allerdings scheitert es an der Durchreichung der PCI devices.
Ich hatte jetzt Hoffnung das ich durch den Maschinen Type q35 das Problem in den...
Hallo,
Aktuell kann man in der Hardware einen Serial Port definieren.
Leider finde ich keine Doku dazu.
Wenn ich auf zwei VM's einen serialport(0) hinzufüge, dann sieht man diesen auch in beiden vm's.
Eine Kommunikation über die beiden bekomme ich aber nicht.
Habe ich da etwas falsch...
Hallo Stoiko,
OMPing geht dann auch nicht mehr.
Ich könnte alle Cluster auf Unicast umstellen.
Was sind da die Nachteile?
Vielen Dank für Deine Hilfe.
Peter
Ja die Cluster haben verschiedene Namen.
Ob es zwei bestimmte sind kann ich im Moment nicht sagen.
Wie kann aber durch das wegfallen eines oder mehrerer Nodes Multicast im gesamten Netz nicht mehr funktionieren?
Wir hatten nach einem Netzwerkumbau schon einmal das selbe Problem.
Wir mussten alle...
Hallo,
Ist das erlaubt oder gibt es da Probleme.
Aktuell haben wir zwei Produktive Cluster und ein Testcluster im selben Netz. Jeweils drei Nodes.
Wenn wir am Testcluster zwei Nodes runterfahren verlieren auch die produktiven ihr Quorum.
Peter
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.