Node hinzufügen

j0k4b0

Active Member
Apr 1, 2016
59
1
26
27
Hallo!

Ich habe ein Proxmox Server, dort möchte ich einen Node hinzufügen.

Ich habe dafür folgenden Befehl verwendet: pvecm add <hostname>

Doch leider funktioniert das nicht. Mir wird zwar ein weiterer Node im Interface angezeigt, kann diesen aber nicht verwalten. Leider kann ich auch keine Fehlermeldung nennen, ich habe keine.

Mir würde schon reichen zu wissen, wie ich das ganze debuggen kann / wie ich zu einem Fehler komme.

Hier mal ein bisschen output:
Code:
root@blue:/etc/pve# cat /etc/pve/corosync.conf
logging {
  debug: off
  to_syslog: yes
}

nodelist {
  node {
    name: blue
    nodeid: 2
    quorum_votes: 1
    ring0_addr: blue
  }

  node {
    name: admin
    nodeid: 1
    quorum_votes: 1
    ring0_addr: admin
  }

}

quorum {
  provider: corosync_votequorum
}

totem {
  cluster_name: <name>
  config_version: 3
  ip_version: ipv4
  secauth: on
  version: 2
  interface {
    bindnetaddr: <master ip>
    ringnumber: 0
  }

}

Code:
root@blue:/etc/pve# /etc/init.d/cman restart
-bash: /etc/init.d/cman: Datei oder Verzeichnis nicht gefunden
root@blue:/etc/pve# service pvestatd restart
root@blue:/etc/pve# service pve-cluster restart
Ich habe auch bereits den gesamten Server neu gestartet.


Diese Datei: /etc/pve/cluster.conf - gibt es auf meinem System nicht (Viele im Forum hatten in anderen Themen danach gefragt)

Was kann ich tun um das Problem zu analysieren?

Vielen Dank für eure Hilfe.
 
Schau dir nochmal die Doku an.

https://pve.proxmox.com/wiki/Cluster_Manager

Bei Problemen liegt es meist an einem nicht richtig funktionierendem Netzwerk, d.h. VOR den cluster joinen sollte man dies testen (siehe doku).
 
Die Punkte wurde bereits getestet und von meinem Anbieter als funktionieren bestätigt.
 
=> nochmal testen.

wer ist den der "Anbieter" - ein Hoster, welcher?
 
Diese Datei: /etc/pve/cluster.conf - gibt es auf meinem System nicht (Viele im Forum hatten in anderen Themen danach gefragt)


Ist durch "/etc/pve/corosync.conf" ersetzt worden.

ring0_addr: admin

Ist die Adresse auflösbar?
https://pve.proxmox.com/pve-docs/chapter-pvecm.html#cluster-network-requirements

Und auf beiden nodes mal:
Code:
pvecm status
systemctl status corosync pve-cluster
ausführen und den Output hier posten.
 
Hi,

unten findet ihr den Output der genannten Befehle.

Hier habe ich aber einen neuen Fehler mittels journalctl -xn Gefunden:

Code:
-- Logs begin at Do 2017-08-03 01:35:55 CEST, end at Do 2017-08-03 13:36:21 CEST. --
Aug 03 13:36:21 blue.node.sergo.de pveproxy[11548]: worker exit
Aug 03 13:36:21 blue.node.sergo.de pveproxy[11549]: worker exit
Aug 03 13:36:21 blue.node.sergo.de pveproxy[1375]: worker 11548 finished
Aug 03 13:36:21 blue.node.sergo.de pveproxy[1375]: starting 1 worker(s)
Aug 03 13:36:21 blue.node.sergo.de pveproxy[1375]: worker 11556 started
Aug 03 13:36:21 blue.node.sergo.de pveproxy[1375]: worker 11549 finished
Aug 03 13:36:21 blue.node.sergo.de pveproxy[1375]: starting 1 worker(s)
Aug 03 13:36:21 blue.node.sergo.de pveproxy[1375]: worker 11557 started
Aug 03 13:36:21 blue.node.sergo.de pveproxy[11556]: /etc/pve/local/pve-ssl.key: failed to load local private key (key_file or key) at /usr/share/perl5/PVE/APIServer/AnyEvent.pm line 1618.
Aug 03 13:36:21 blue.node.sergo.de pveproxy[11557]: /etc/pve/local/pve-ssl.key: failed to load local private key (key_file or key) at /usr/share/perl5/PVE/APIServer/AnyEvent.pm line 1618.


master server:

Code:
[13:34:05 root@admin]{/home/<username>}>pvecm status

Quorum information
------------------

Date:            Thu Aug  3 13:34:10 2017
Quorum provider:  corosync_votequorum
Nodes:            1
Node ID:          0x00000001
Ring ID:          1/4
Quorate:          No

Votequorum information
----------------------

Expected votes:   2
Highest expected: 2
Total votes:      1
Quorum:          2 Activity blocked

Flags:          


Membership information
----------------------
Nodeid      Votes Name
0x00000001          1 <master server ip> (local)


[13:34:10 root@admin]{/home/<username>}>systemctl status corosync pve-cluster

● corosync.service - Corosync Cluster Engine
   Loaded: loaded (/lib/systemd/system/corosync.service; enabled)
   Active: active (running) since Di 2017-08-01 22:31:54 CEST; 1 day 15h ago
  Process: 17198 ExecStart=/usr/share/corosync/corosync start (code=exited, status=0/SUCCESS)
 Main PID: 17206 (corosync)
   CGroup: /system.slice/corosync.service
          └─17206 corosync

Aug 02 19:45:34 admin.<domain.de> corosync[17206]: [QUORUM] This node is within the non-primary component and will NOT provide any services.
Aug 02 19:45:34 admin.<domain.de> corosync[17206]: [QUORUM] Members[1]: 1
Aug 02 19:59:26 admin.<domain.de> corosync[17206]: [QUORUM] This node is within the primary component and will provide service.
Aug 02 19:59:26 admin.<domain.de> corosync[17206]: [QUORUM] Members[1]: 1
Aug 02 20:02:03 admin.<domain.de> corosync[17206]: [CFG   ] Config reload requested by node 1
Aug 02 21:55:04 admin.<domain.de> corosync[17206]: [CFG   ] Config reload requested by node 1
Aug 02 21:55:04 admin.<domain.de> corosync[17206]: [QUORUM] This node is within the non-primary component and will NOT provide any services.
Aug 02 21:55:04 admin.<domain.de> corosync[17206]: [QUORUM] Members[1]: 1
Aug 03 07:20:40 admin.<domain.de> corosync[17206]: [MAIN  ] Denied connection attempt from 1000:1000
Aug 03 07:20:40 admin.<domain.de> corosync[17206]: [QB    ] Invalid IPC credentials (17206-5459-22).

● pve-cluster.service - The Proxmox VE cluster filesystem
   Loaded: loaded (/lib/systemd/system/pve-cluster.service; enabled)
   Active: active (running) since Mi 2017-08-02 20:02:50 CEST; 17h ago
  Process: 4002 ExecStartPost=/usr/bin/pvecm updatecerts --silent (code=exited, status=0/SUCCESS)
  Process: 3997 ExecStart=/usr/bin/pmxcfs $DAEMON_OPTS (code=exited, status=0/SUCCESS)
 Main PID: 4000 (pmxcfs)
   CGroup: /system.slice/pve-cluster.service
          └─4000 /usr/bin/pmxcfs

Aug 03 07:20:40 admin.<domain.de> pmxcfs[4000]: [ipcs] crit: connection from bad user 1000! - rejected
Aug 03 07:20:40 admin.<domain.de> pmxcfs[4000]: [libqb] error: Error in connection setup (4000-5459-29): Unknown error -1 (-1)
Aug 03 07:20:40 admin.<domain.de> pmxcfs[4000]: [ipcs] crit: connection from bad user 1000! - rejected
Aug 03 07:20:40 admin.<domain.de> pmxcfs[4000]: [libqb] error: Error in connection setup (4000-5459-29): Unknown error -1 (-1)
Aug 03 08:02:49 admin.<domain.de> pmxcfs[4000]: [dcdb] notice: data verification successful
Aug 03 09:02:49 admin.<domain.de> pmxcfs[4000]: [dcdb] notice: data verification successful
Aug 03 10:02:49 admin.<domain.de> pmxcfs[4000]: [dcdb] notice: data verification successful
Aug 03 11:02:49 admin.<domain.de> pmxcfs[4000]: [dcdb] notice: data verification successful
Aug 03 12:02:49 admin.<domain.de> pmxcfs[4000]: [dcdb] notice: data verification successful
Aug 03 13:02:49 admin.<domain.de> pmxcfs[4000]: [dcdb] notice: data verification successful


my new node:

Code:
root@blue:~# pvecm status
Cannot initialize CMAP service

root@blue:~# systemctl status corosync pve-cluster

● corosync.service - Corosync Cluster Engine
   Loaded: loaded (/lib/systemd/system/corosync.service; enabled)
   Active: failed (Result: exit-code) since Do 2017-08-03 13:34:10 CEST; 3min 49s ago
  Process: 11039 ExecStart=/usr/share/corosync/corosync start (code=exited, status=1/FAILURE)


Aug 03 13:33:09 blue.node.<domain.de> corosync[11046]: [TOTEM ] The network interface is down.
Aug 03 13:33:09 blue.node.<domain.de> corosync[11046]: [SERV  ] Service engine loaded: corosync configuration map access [0]
Aug 03 13:33:09 blue.node.<domain.de> corosync[11046]: [QB    ] server name: cmap
Aug 03 13:33:09 blue.node.<domain.de> corosync[11046]: [SERV  ] Service engine loaded: corosync configuration service [1]
Aug 03 13:33:09 blue.node.<domain.de> corosync[11046]: [QB    ] server name: cfg
Aug 03 13:33:09 blue.node.<domain.de> corosync[11046]: [SERV  ] Service engine loaded: corosync cluster closed process group service v1.01 [2]
Aug 03 13:34:10 blue.node.<domain.de> corosync[11039]: Starting Corosync Cluster Engine (corosync): [FAILED]

Aug 03 13:34:10 blue.node.<domain.de> systemd[1]: corosync.service: control process exited, code=exited status=1
Aug 03 13:34:10 blue.node.<domain.de> systemd[1]: Failed to start Corosync Cluster Engine.
Aug 03 13:34:10 blue.node.<domain.de> systemd[1]: Unit corosync.service entered failed state.

● pve-cluster.service - The Proxmox VE cluster filesystem
   Loaded: loaded (/lib/systemd/system/pve-cluster.service; enabled)
   Active: active (running) since Do 2017-08-03 13:33:12 CEST; 4min 47s ago
  Process: 11067 ExecStartPost=/usr/bin/pvecm updatecerts --silent (code=exited, status=0/SUCCESS)
  Process: 11063 ExecStart=/usr/bin/pmxcfs $DAEMON_OPTS (code=exited, status=0/SUCCESS)
 Main PID: 11065 (pmxcfs)
   CGroup: /system.slice/pve-cluster.service
          └─11065 /usr/bin/pmxcfs


Aug 03 13:37:47 blue.node.<domain.de> pmxcfs[11065]: [dcdb] crit: cpg_initialize failed: 2
Aug 03 13:37:47 blue.node.<domain.de> pmxcfs[11065]: [status] crit: cpg_initialize failed: 2
Aug 03 13:37:53 blue.node.<domain.de> pmxcfs[11065]: [quorum] crit: quorum_initialize failed: 2
Aug 03 13:37:53 blue.node.<domain.de> pmxcfs[11065]: [confdb] crit: cmap_initialize failed: 2
Aug 03 13:37:53 blue.node.<domain.de> pmxcfs[11065]: [dcdb] crit: cpg_initialize failed: 2
Aug 03 13:37:53 blue.node.<domain.de> pmxcfs[11065]: [status] crit: cpg_initialize failed: 2
Aug 03 13:37:59 blue.node.<domain.de> pmxcfs[11065]: [quorum] crit: quorum_initialize failed: 2
Aug 03 13:37:59 blue.node.<domain.de> pmxcfs[11065]: [confdb] crit: cmap_initialize failed: 2
Aug 03 13:37:59 blue.node.<domain.de> pmxcfs[11065]: [dcdb] crit: cpg_initialize failed: 2
Aug 03 13:37:59 blue.node.<domain.de> pmxcfs[11065]: [status] crit: cpg_initialize failed: 2

PS: Ja, die anderen Ausgaben sind auch voll mit Fehlern. Woran könnte das liegen? Ich kann mit den Fehlermeldungen so leider nicht viel anfangen.

PPS:
Ja, admin ist auflösbar.
 
Aug 03 13:37:47 blue.node.<domain.de> pmxcfs[11065]: [dcdb] crit: cpg_initialize failed: 2

Unser cluster file system kann sich mit corosync nicht verbinden.

Aug 03 13:33:09 blue.node.<domain.de> corosync[11046]: [TOTEM ] The network interface is down.

Und corosync läuft nicht, ... was ist mit dem interface los? Falls es jetzt eh wieder up ist dann bitte:

Code:
# systemctl restart corosync

/etc/pve/local/pve-ssl.key: failed to load local private key (key_file or key) at /usr/share/perl5/PVE/APIServer/AnyEvent.pm line 1618.

Hast du die Zertifikate gelöscht/angefasst. Die Logs lassen vermuten dass da eher etwas mehr getan wurde als nur ein einfaches "pvecm add <CLUSTERNODE>"

ein:
Code:
pvecm updatecerts

sollte die Zertifikate wieder herstellen.
 
Hi,

vielen Dank für deine Hilfe. Da gibt es nur noch ein Problem:

Code:
root@blue:/etc/pve# pvecm updatecerts
no quorum - unable to update files

Code:
root@blue:/etc/pve# pvecm expected 1
Cannot initialize CMAP service

Die Logs lassen vermuten dass da eher etwas mehr getan wurde als nur ein einfaches "pvecm add <CLUSTERNODE>"
Ich gebe zu, dass wäre eine Erleichterung für mich - Doch dem ist leider nicht so. :/
 
Hi,

vielen Dank für deine Hilfe. Da gibt es nur noch ein Problem:

Code:
root@blue:/etc/pve# pvecm updatecerts
no quorum - unable to update files

Code:
root@blue:/etc/pve# pvecm expected 1
Cannot initialize CMAP service

Henne/Ei Problem, das kann man jetzt etwas komplex schon lösen, einfacher wäre es aber corosync zum laufen zu bringen.
Aug 03 13:33:09 blue.node.<domain.de> corosync[11046]: [TOTEM ] The network interface is down.
[...]
Aug 03 13:34:10 blue.node.<domain.de> corosync[11039]: Starting Corosync Cluster Engine (corosync): [FAILED]
Aug 03 13:34:10 blue.node.<domain.de> systemd[1]: corosync.service: control process exited, code=exited status=1

Das ist ja die eigentliche Ursache der Probleme. Was ist den nun mit dem Netzwerk los?
Corosync behauptet meist nicht zu unrecht das ein Interface down ist.
Einfach gesagt also Netzwerk fixen, corosync restarten. :)
 
Hi,

danke!

Ich habe nochmal bei meinem Hoster angefragt, nicht das da etwas vergessen wurde. ;)

Ich kann im allgemeinen keine Netzwerkeinschränkungen feststellen. Ansonsten hier mal die Ausgabe von ifconfig:
Code:
root@blue:/etc/pve# ifconfig
eth0      Link encap:Ethernet  Hardware Adresse <hw addresse>
          inet Adresse:<inet IP>  Bcast:<Bcast>  Maske:255.255.255.0
          inet6-Adresse: <inet ipv6> Gültigkeitsbereich:Verbindung
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metrik:1
          RX packets:9491227 errors:0 dropped:0 overruns:0 frame:0
          TX packets:16255 errors:0 dropped:0 overruns:0 carrier:0
          Kollisionen:0 Sendewarteschlangenlänge:1000
          RX bytes:584995991 (557.8 MiB)  TX bytes:2099806 (2.0 MiB)

lo        Link encap:Lokale Schleife 
          inet Adresse:127.0.0.1  Maske:255.0.0.0
          inet6-Adresse: ::1/128 Gültigkeitsbereich:Maschine
          UP LOOPBACK RUNNING  MTU:65536  Metrik:1
          RX packets:18 errors:0 dropped:0 overruns:0 frame:0
          TX packets:18 errors:0 dropped:0 overruns:0 carrier:0
          Kollisionen:0 Sendewarteschlangenlänge:1
          RX bytes:720 (720.0 B)  TX bytes:720 (720.0 B)
 
Hmm, kannst du mal ein
Code:
# systemctl restart corosync

machen und dann den log hier reinposten:
Code:
# journalctl -u corosync -u pve-cluster
Notfalls mal in /etc/corosync/corosync.conf die ring0_addr zur nummerischen IP ändern.
 
Hi,

hier mal der Output:
Code:
root@blue:~# systemctl restart corosync
Job for corosync.service failed. See 'systemctl status corosync.service' and 'journalctl -xn' for details.
root@blue:~# journalctl -u corosync -u pve-cluster
-- Logs begin at Do 2017-08-03 16:36:35 CEST, end at Do 2017-08-03 19:15:23 CEST. --
Aug 03 16:36:47 blue.node.sergo.de systemd[1]: Starting The Proxmox VE cluster filesystem...
Aug 03 16:36:47 blue.node.sergo.de pmxcfs[1024]: [quorum] crit: quorum_initialize failed: 2
Aug 03 16:36:47 blue.node.sergo.de pmxcfs[1024]: [quorum] crit: can't initialize service
Aug 03 16:36:47 blue.node.sergo.de pmxcfs[1024]: [confdb] crit: cmap_initialize failed: 2
Aug 03 16:36:47 blue.node.sergo.de pmxcfs[1024]: [confdb] crit: can't initialize service
Aug 03 16:36:47 blue.node.sergo.de pmxcfs[1024]: [dcdb] crit: cpg_initialize failed: 2
Aug 03 16:36:47 blue.node.sergo.de pmxcfs[1024]: [dcdb] crit: can't initialize service
Aug 03 16:36:47 blue.node.sergo.de pmxcfs[1024]: [status] crit: cpg_initialize failed: 2
Aug 03 16:36:47 blue.node.sergo.de pmxcfs[1024]: [status] crit: can't initialize service
Aug 03 16:36:48 blue.node.sergo.de systemd[1]: Started The Proxmox VE cluster filesystem.
Aug 03 16:36:48 blue.node.sergo.de systemd[1]: Starting Corosync Cluster Engine...
Aug 03 16:36:49 blue.node.sergo.de corosync[1121]: [MAIN  ] Corosync Cluster Engine ('2.4.2'): started and ready to provide service.
Aug 03 16:36:49 blue.node.sergo.de corosync[1121]: [MAIN  ] Corosync built-in features: augeas systemd pie relro bindnow
Aug 03 16:36:49 blue.node.sergo.de corosync[1124]: [TOTEM ] Initializing transport (UDP/IP Multicast).
Aug 03 16:36:49 blue.node.sergo.de corosync[1124]: [TOTEM ] Initializing transmit/receive security (NSS) crypto: aes256 hash: sha1
Aug 03 16:36:49 blue.node.sergo.de corosync[1124]: [TOTEM ] The network interface is down.
Aug 03 16:36:49 blue.node.sergo.de corosync[1124]: [SERV  ] Service engine loaded: corosync configuration map access [0]
Aug 03 16:36:49 blue.node.sergo.de corosync[1124]: [QB    ] server name: cmap
Aug 03 16:36:49 blue.node.sergo.de corosync[1124]: [SERV  ] Service engine loaded: corosync configuration service [1]
Aug 03 16:36:49 blue.node.sergo.de corosync[1124]: [QB    ] server name: cfg
Aug 03 16:36:49 blue.node.sergo.de corosync[1124]: [SERV  ] Service engine loaded: corosync cluster closed process group service v1.01 [2]
Aug 03 16:36:53 blue.node.sergo.de pmxcfs[1024]: [quorum] crit: quorum_initialize failed: 2
Aug 03 16:36:53 blue.node.sergo.de pmxcfs[1024]: [confdb] crit: cmap_initialize failed: 2
Aug 03 16:36:53 blue.node.sergo.de pmxcfs[1024]: [dcdb] crit: cpg_initialize failed: 2
Aug 03 16:36:53 blue.node.sergo.de pmxcfs[1024]: [status] crit: cpg_initialize failed: 2
Aug 03 16:36:59 blue.node.sergo.de pmxcfs[1024]: [quorum] crit: quorum_initialize failed: 2
Aug 03 16:36:59 blue.node.sergo.de pmxcfs[1024]: [confdb] crit: cmap_initialize failed: 2
Aug 03 16:36:59 blue.node.sergo.de pmxcfs[1024]: [dcdb] crit: cpg_initialize failed: 2
Aug 03 16:36:59 blue.node.sergo.de pmxcfs[1024]: [status] crit: cpg_initialize failed: 2
Aug 03 16:37:05 blue.node.sergo.de pmxcfs[1024]: [quorum] crit: quorum_initialize failed: 2
Aug 03 16:37:05 blue.node.sergo.de pmxcfs[1024]: [confdb] crit: cmap_initialize failed: 2
Aug 03 16:37:05 blue.node.sergo.de pmxcfs[1024]: [dcdb] crit: cpg_initialize failed: 2
Aug 03 16:37:05 blue.node.sergo.de pmxcfs[1024]: [status] crit: cpg_initialize failed: 2
Aug 03 16:37:11 blue.node.sergo.de pmxcfs[1024]: [quorum] crit: quorum_initialize failed: 2
Aug 03 16:37:11 blue.node.sergo.de pmxcfs[1024]: [confdb] crit: cmap_initialize failed: 2
Aug 03 16:37:11 blue.node.sergo.de pmxcfs[1024]: [dcdb] crit: cpg_initialize failed: 2
Aug 03 16:37:11 blue.node.sergo.de pmxcfs[1024]: [status] crit: cpg_initialize failed: 2
Aug 03 16:37:17 blue.node.sergo.de pmxcfs[1024]: [quorum] crit: quorum_initialize failed: 2
Aug 03 16:37:17 blue.node.sergo.de pmxcfs[1024]: [confdb] crit: cmap_initialize failed: 2
Aug 03 16:37:17 blue.node.sergo.de pmxcfs[1024]: [dcdb] crit: cpg_initialize failed: 2
Aug 03 16:37:17 blue.node.sergo.de pmxcfs[1024]: [status] crit: cpg_initialize failed: 2
Aug 03 16:37:23 blue.node.sergo.de pmxcfs[1024]: [quorum] crit: quorum_initialize failed: 2
Aug 03 16:37:23 blue.node.sergo.de pmxcfs[1024]: [confdb] crit: cmap_initialize failed: 2
Aug 03 16:37:23 blue.node.sergo.de pmxcfs[1024]: [dcdb] crit: cpg_initialize failed: 2
Aug 03 16:37:23 blue.node.sergo.de pmxcfs[1024]: [status] crit: cpg_initialize failed: 2
Aug 03 16:37:29 blue.node.sergo.de pmxcfs[1024]: [quorum] crit: quorum_initialize failed: 2


Ich habe vorher auch ring0_addr zu den entsprechenden IPs geändert.


Der Hoster hatte auch extra nochmal meinen Server im RZ umgestellt, dass beide hinter dem selben Switch hängen.

PS: ich sehe grade, dass ich keine Berechtigung habe die datei: /etc/corosync/corosync.conf zu bearbeiten.
 
Last edited:
Hi,
nachdem mein hoster jetzt noch zwei Sachen geändert hat ist das Interface up.

Beide Hosts sind auf der selben Version. Dennoch funktioniert das ganze leider nicht wie es soll:

Code:
root@blue:~# systemctl status corosync pve-cluster
● corosync.service - Corosync Cluster Engine
Loaded: loaded (/lib/systemd/system/corosync.service; enabled)
Active: failed (Result: exit-code) since Sa 2017-08-05 11:11:20 CEST; 4h 13min ago
Process: 32333 ExecStart=/usr/share/corosync/corosync start (code=exited, status=1/FAILURE)

Aug 05 11:10:19 blue.node.<domain.de> corosync[32340]: [TOTEM ] Initializing transmit/receive security (NSS) crypto: aes256 hash: sha1
Aug 05 11:10:19 blue.node.<domain.de> corosync[32340]: [TOTEM ] The network interface [84.200.4.95] is now up.
Aug 05 11:10:19 blue.node.<domain.de> corosync[32340]: [SERV  ] Service engine loaded: corosync configuration map access [0]
Aug 05 11:10:19 blue.node.<domain.de> corosync[32340]: [QB    ] server name: cmap
Aug 05 11:10:19 blue.node.<domain.de> corosync[32340]: [SERV  ] Service engine loaded: corosync configuration service [1]
Aug 05 11:10:19 blue.node.<domain.de> corosync[32340]: [QB    ] server name: cfg
Aug 05 11:11:20 blue.node.<domain.de> corosync[32333]: Starting Corosync Cluster Engine (corosync): [FAILED]
Aug 05 11:11:20 blue.node.<domain.de> systemd[1]: corosync.service: control process exited, code=exited status=1
Aug 05 11:11:20 blue.node.<domain.de> systemd[1]: Failed to start Corosync Cluster Engine.
Aug 05 11:11:20 blue.node.<domain.de> systemd[1]: Unit corosync.service entered failed state.

● pve-cluster.service - The Proxmox VE cluster filesystem
Loaded: loaded (/lib/systemd/system/pve-cluster.service; enabled)
Active: active (running) since Sa 2017-08-05 09:55:56 CEST; 5h 28min ago
Process: 28103 ExecStartPost=/usr/bin/pvecm updatecerts --silent (code=exited, status=0/SUCCESS)
Process: 28097 ExecStart=/usr/bin/pmxcfs $DAEMON_OPTS (code=exited, status=0/SUCCESS)
Main PID: 28101 (pmxcfs)
CGroup: /system.slice/pve-cluster.service
└─28101 /usr/bin/pmxcfs

Aug 05 15:24:08 blue.node.<domain.de> pmxcfs[28101]: [dcdb] crit: cpg_initialize failed: 2
Aug 05 15:24:08 blue.node.<domain.de> pmxcfs[28101]: [status] crit: cpg_initialize failed: 2
Aug 05 15:24:14 blue.node.<domain.de> pmxcfs[28101]: [quorum] crit: quorum_initialize failed: 2
Aug 05 15:24:14 blue.node.<domain.de> pmxcfs[28101]: [confdb] crit: cmap_initialize failed: 2
Aug 05 15:24:14 blue.node.<domain.de> pmxcfs[28101]: [dcdb] crit: cpg_initialize failed: 2
Aug 05 15:24:14 blue.node.<domain.de> pmxcfs[28101]: [status] crit: cpg_initialize failed: 2
Aug 05 15:24:20 blue.node.<domain.de> pmxcfs[28101]: [quorum] crit: quorum_initialize failed: 2
Aug 05 15:24:20 blue.node.<domain.de> pmxcfs[28101]: [confdb] crit: cmap_initialize failed: 2
Aug 05 15:24:20 blue.node.<domain.de> pmxcfs[28101]: [dcdb] crit: cpg_initialize failed: 2
Aug 05 15:24:20 blue.node.<domain.de> pmxcfs[28101]: [status] crit: cpg_initialize failed: 2
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!