Moin,
gefühlt würde ich auch auf ein reines Netzwerkproblem tippen. Unabhängig von Proxmox.
STP-Probleme, doppelte IP im Netz, defelkte Hardware? Kann jemand irgendwo was reinstecken?
Evtl. die Logs auf den Switchen anschauen.
@user58292
ich bedanke mich auch ganz artig.
Auf ein TimeOut wär ich auch nicht gekommen.
Ich habe noch einige Migrationen von VMware zu Proxmox vor mir. Bei uns werden allerdings nicht so große VMs gebaut.
So etwas verteilen wir immer in der VM auf mehrere Platten, die dann aber auch einzeln...
Moin,
wenn Du sicher bist, dass Dein shared storage zu diesem Zeitpunkt schon sauber eingebunden ist, kannst Du es mal in Proxmox mit der Startverzögerung der VMs probieren.
VM >> Optionen >> Startreihenfolge >> Startverzögerung.
Einen Versuch ist es wert.
Gut's Nächtle.
Hallo Gemeinde,
ich möchte gern an eurem Kelch der Proxmox-Ceph-Erfahrung nippen....
Wir betreiben hier einen Proxmox-Cluster mit Ceph und drei Nodes.
Alle Platten für Ceph sind 12k SAS-Platten (6 pro Node), Ceph-Netzwerk redundant 10Gbit.
Macht es Sinn noch einen kompletten Node...
Ich dachte der Nummer könnte ich ausweichen, wenn ich den upzudatenden Node vorher freiziehe.
Hmmm....ich hab ein Netz für Ceph (10Gbit) und eines für die normale Anbindung (1Gbit). Für weitere Netze gehen mir einfach die Nics aus. :D
Hallo,
gestern hab ich Updates auf den Nodes eingespielt. Dafür hab ich den jeweilligen Node freimigriert.
Dabei war auf einam mal die Netzwerkverbindung komplett weg. Als sie wiederkam sah ich dass alle VMs und Container auf allen drei Nodes rebootet hatten.
Vier blieben gelocked aus. Leider...
Das bleibt alles nur Theorie. Und rechnen kann ich allein.
Wenn ich auf einen Node VMs zu den bisherigen dazuschiebe und denn mehr RAM beanspruche als der Node vergeben kann passieren seltsame Dinge. Auf dem Testcluster wurden dann VMs abgeschaltet.
Hier mel meine Erfahrungen mit Benchmarks...
Ja..ein... ;)
Wenn bei uns bei Reboot eines Nodes seine VMs ganz doof auf einen anderen NOde verschoben werden, dürfte dieser unter der Last einknicken.
Es müsste also eine Art Loadbalancing zwischen den verbleibenden NOdes geben. Auch, oder besonders bei einem Nodeausfall.
Oder gibt's das...
Moin,
das wolltest Du nicht?
pvesh get /nodes/cubus/lxc/105/rrddata --timeframe hour
┌──────────────────────┬──────────────────┬──────────────────┬──────────────────┬────────┬────────────┬───────────┬──────────────────┬──────────────────┬────────┬────────────┐
│ cpu │ disk...
Moin,
solche Phänomene hatten wir am Anfang auch.
Bei uns waren es die Powersaving-Settings im Bios.
https://forum.proxmox.com/threads/powersaveing-und-danke.48584/#post-227547
Schönen Freitag noch
Thomas
@sallos,
bei mir läuft seit ca. 2 Wochen ein HP Micro-Server Gen8 mit Proxmox. (Vorher lief er auf Debian 8)
Das System läuft auf ner SSD und das LVM liegt auf den 4 Platten im Raid 10.
Kleines süßes Ding für kleine Ansprüche.
Hab die Kiste vor zwei Jahren bei ebay geschossen und nur RAM...
Guten Morgen,
<ganz_vermessen>ich hätte noch einen Featurewunsch. </ganz_vermessen> :cool:
Im Spice-Script muss man ja immer den Node angeben. Hat jemand eine Lösung wie die VM gefunden werden kann, wenn sie mal auf einem anderen Node liegt? Zum Beispiel bei Wartungen oder bei Ausfall eines...
Moin,
falls mit img eine virtuelle Festplatte gemeint ist könntest Du versuchen diese in qcow2 zu konvertieren.
qemu-img convert -f raw -O qcow2 /path/to/your/hdd/vm01.img /path/to/your/hdd/vm01.qcow2
Falls damit gemeint ist, dass img ein Installationsimage ist. Könntest Du diese in ISO...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.