Hallo,eigentlich nicht. Da werden ständig Messerte und Zustände gespeichert. Ich habe es noch mal versucht, jetzt geht es wieder. Ich wollte das nur melden, wenn ich schon nichts bezahle.
Vielen Dank,
Ralf
Hallo, ich habe 2 Intel Celeron und ein N100 node. Darauf laufen nur 4 kleine VM von 10GB zur Haussteuerung. Die beiden Celeron habe ich heute auf den neuesten Stand gebracht. Als ich die 4 VM einzeln darauf verteilen wollte, lief die erste Migration durch. Die zweite stoppte dann kurz vor...
So sieht es aus. Jetzt läuft wieder alles. Hat nur zu einigen kurzen Unterbrechungen geführt. Meine Frau hat aber nichts mitbekommen, das war die Hauptsache:)
Hallo,
wollte nur mal mitteilen das nach dem Upgrade des einen nodes auf 8.0 die Migration der VM s nicht glatt durchlief. Ich musste die VM stoppen und wieder starten damit es wieder lief. Rückwärts von 8.0 auf 8.0 lief wieder alles.
Viele Grüße,
Ralf
Der server läuft korrekt. Mit dem rescue modus habe ich nut deinstalliert, es kam aber die gleiche Fehlermeldung. Ich kann im rescue modus mit upsc die Daten auslesen.
Moin, nachdem heute morgen der nut server eine synology diskstation für eine halbe minute in den Batterie Modus gegangen ist, fuhr mein Proxmox das System herunter und lässt sich nicht mehr starten. Ich kann mit einem Monitor gerade noch lesen "nut driver not found" danach fährt das System...
:mad:
Juhuu, ich habe alle Dateien wiederhergestellt und jetzt läuft das verschieben von 1 nach 2. Wenn die andere Richtung auch noch klappt? Aber was war das nun?
Leider geht es anders herum nicht, ich hab es geahnt. Die bekannte Fehlermeldung:
2021-06-03 21:22:42 # /usr/bin/ssh -e none -o...
Ich habe mich von winscp in die Irre führen lassen. Mit putty sind in beiden nodes folgende Dateien in .ssh
authorized_keys id_rsa.old id_rsa.pub.old
config.old id_rsa id_rsa.pub
Aber das kommt bei der Ausführung:
root@nuc1:~/.ssh# ssh-copy-id -i ~/.ssh/id_rsa.pub nuc2...
Das komische ist das ich gar nichts getan habe bevor der Fehler auftrat. Ich habe dann das gemacht was in der Fehlermeldung stand. Hat aber auch nichts genutzt. Dann habe ich gegoogeld und
Bash:
- cd /root/.ssh
- mv id_rsa id_rsa.old
- mv id_rsa.pub id_rsa.pub.old
- mv config config.old
-...
Danke für die Geduld, aber id_rsa.pub wird nicht gefunden:
/usr/bin/ssh-copy-id: ERROR: failed to open ID file '/root/.ssh/id_rsa': No such file
(to install the contents of '/root/.ssh/id_rsa.pub' anyway, look at the -f option)
Die Dateien fangen dort meist mit ssh_host an. Ein...
Der Zugriff per ssh und passwort ist möglich. Ist die Schreibweise
ssh-copy-id -i ~/.ssh/mykey user@host ? Was ist dann mykey und user@host? Auf welchem node muss der Befehl ausgeführt werden?
Hallo,
ich habe das auch versucht. Leider booted die neue VM nicht mehr und läßt sich auch nicht mehr stoppen. Nur ein reboot des ganzen Knoten funktioniert. Ich habe aber auch keine efi Partition. Gibt es auch dafür eine Lösung?
Viele Grüße,
Ralf
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.