Hi, wir wären auch sehr an einer integrierten Lösung von Proxmox interessiert.
Noch besser wäre natürlich direkt die Möglichkeit custom config in die Cloudinit Config hinzufügen zu können. Damit hätte man jegliche Freiheit.
No manual changes, we added and removed nodes from the cluster.
I will do an upgrade asap.
The node was added via CLI.
While adding the node to the cluster we haven't performed any reboot manually but because of a unidentified problem the cluster was rebooting by itself.
root@xx-prox32:~#...
Hi Tom, I see the following outputs in the log:
Here are the outputs ov pveversion -v:
Proxmox 6.1 Nodes (all excepting the new one)
root@xx-xx1-prox31:~# pveversion -v
proxmox-ve: 6.1-2 (running kernel: 5.3.18-2-pve)
pve-manager: 6.1-7 (running version: 6.1-7/13e58d5e)
pve-kernel-5.3: 6.1-5...
Our latency is under 1ms every time and sometimes peaks to ~3ms. But this doesn't explain the problems mentioned here:
https://forum.proxmox.com/threads/corosync-error-messages-since-reboot.71307/#post-321001
In this screenshot you can see a behavior for which we could not find a reason so far. It looks like the IP addresses of the nodes change when a new member is added to the cluster.
Hello, the nodes aren't on the same switch and are also splitted over two DCs with multiple fiber links in between.
We will do the upgrade as soon as possible. As there were no heavy changes between 6.1 and 6.2 regarding corosync (checked in changelogs) we installed the new node on the newest...
I will check the version! Thank you for this hint.
(Checked it, the new node is on 6.2 and the old nodes are on 6.1)
We had 7 nodes in the cluster and now have 8 nodes, can you imagine why we loose quorum when we add a new node?
Regards,
Alex
Hello,
today we had a problem after adding a new node to a 7 node proxmox cluster. After adding the node the cluster rebooted completely.
Since this reboot we are getting constantly (every second) the following message on two of our 8 nodes.
corosync[2710]: [TOTEM ] Retransmit List: 1c23c
We...
Tatsächlich verwende ich check_mk und deren Agent. Danke für den Hinweis! Ich habe soeben das Update ausgerollt und werde das Verhalten nun beobachten.
LG
Servus. Ich betreibe auf zwei dedizierten Maschinen Proxmox mit KVM und habe in letzter Zeit seit Debian 10 regelmäßig Probleme mit 90% der VMs.
—
Nachfolgendes bezieht sich auf die VMs und nicht auf den Proxmox Host.
Auswirkung
Nach einiger Zeit läuft der RAM + SWAP voll und das System fährt...
Ich habe nun in Richtung SSH weitergesucht
mx1 sshd[1105]: Received request to connect to path /var/run/postgresql/.s.PGSQL.5432, but the request was denied.
Anschließend habe ich die SSH Config nochmals vom Original Kopiert und die beiden Systeme komplett neu gestartet. Siehe da, es...
Servus,
Da erhalte ich den genannten Fehler zurück
root@mx0 /var/log # psql -h /var/run/pmgtunnel/ -p 3 Proxmox_ruledb
psql: server closed the connection unexpectedly
This probably means the server terminated abnormally
before or while processing the request.
Ich habe soeben...
Servus,
der Service läuft, ja.
Der Log kommt direkt aus /var/log/postgresql/postgresql-9.6-main.log am master (mx0).
Das scheint mir die ganze Fehlermeldung zu sein. Ich ziehe diese aus dem "Syslog" Fenster im Webinterface.
May 16 14:00:51 mx0 pmgdaemon[1067]: successful auth for user...
I can see the following lines in the postgres log file:
postgres@postgres LOG: provided user name (postgres) and authenticated user name (root) do not match
postgres@postgres FATAL: Peer authentication failed for user "postgres"
That's part of the output of journalctl
May 15 20:20:50 mx0...
Servus,
ich habe derzeit ein Problem, dass nach einer Neuinstallation von zwei Proxmox Mail Gateways die Synchronisation der Datenbank nicht sauber funktioniert.
Ich erhalte im Syslog andauernd nachfolgenden Fehler
May 14 23:02:57 mx0 pmgmirror[1035]: starting cluster syncronization
May 14...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.