Hallo,
nachdem unser Switch leider einen Reboot benötigte scheint es den Proxmox Cluster komplett durcheinander gebracht zu haben. Der Cluster war anfangs gar nicht mehr funktional und ist nun irgendwie aufgeteilt worden.
Derzeit laufen 2 Versionierungen:
Aktuell sieht die Cluster Verteilung so aus:
1)Master Node "proxmox" ist alleine und hat kein quorum
2) weitere 6 Nodes sehen so aus
3) Und nochmal weitere 5 Nodes so:
Wie bekomme ich es nun hin, dass die 10.0.10.10 wieder der "Master" ist und die anderen Nodes diesem Cluster beitreten? Ein "pvecm node add 10.0.10.10 -f" klappt leider nicht "unable to copy ssh ID: cat: write error: Permission denied".
nachdem unser Switch leider einen Reboot benötigte scheint es den Proxmox Cluster komplett durcheinander gebracht zu haben. Der Cluster war anfangs gar nicht mehr funktional und ist nun irgendwie aufgeteilt worden.
Derzeit laufen 2 Versionierungen:
proxmox-ve: 4.3-72 (running kernel: 4.4.59-1-pve)
pve-manager: 4.3-12 (running version: 4.3-12/6894c9d9)
pve-kernel-4.4.6-1-pve: 4.4.6-48
pve-kernel-4.4.13-2-pve: 4.4.13-58
pve-kernel-4.4.21-1-pve: 4.4.21-71
pve-kernel-4.4.59-1-pve: 4.4.59-87
pve-kernel-4.2.8-1-pve: 4.2.8-41
pve-kernel-4.4.24-1-pve: 4.4.24-72
pve-kernel-4.2.2-1-pve: 4.2.2-16
pve-kernel-4.2.3-2-pve: 4.2.3-22
lvm2: 2.02.116-pve3
corosync-pve: 2.4.0-1
libqb0: 1.0-1
pve-cluster: 4.0-47
qemu-server: 4.0-96
pve-firmware: 1.1-10
libpve-common-perl: 4.0-83
libpve-access-control: 4.0-19
libpve-storage-perl: 4.0-68
pve-libspice-server1: 0.12.8-1
vncterm: 1.2-1
pve-docs: 4.3-17
pve-qemu-kvm: 2.7.0-8
pve-container: 1.0-85
pve-firewall: 2.0-31
pve-ha-manager: 1.0-38
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u2
lxc-pve: 2.0.6-1
lxcfs: 2.0.5-pve1
criu: 1.6.0-1
novnc-pve: 0.5-8
smartmontools: 6.5+svn4324-1~pve80
fence-agents-pve: not correctly installed
pve-manager: 4.3-12 (running version: 4.3-12/6894c9d9)
pve-kernel-4.4.6-1-pve: 4.4.6-48
pve-kernel-4.4.13-2-pve: 4.4.13-58
pve-kernel-4.4.21-1-pve: 4.4.21-71
pve-kernel-4.4.59-1-pve: 4.4.59-87
pve-kernel-4.2.8-1-pve: 4.2.8-41
pve-kernel-4.4.24-1-pve: 4.4.24-72
pve-kernel-4.2.2-1-pve: 4.2.2-16
pve-kernel-4.2.3-2-pve: 4.2.3-22
lvm2: 2.02.116-pve3
corosync-pve: 2.4.0-1
libqb0: 1.0-1
pve-cluster: 4.0-47
qemu-server: 4.0-96
pve-firmware: 1.1-10
libpve-common-perl: 4.0-83
libpve-access-control: 4.0-19
libpve-storage-perl: 4.0-68
pve-libspice-server1: 0.12.8-1
vncterm: 1.2-1
pve-docs: 4.3-17
pve-qemu-kvm: 2.7.0-8
pve-container: 1.0-85
pve-firewall: 2.0-31
pve-ha-manager: 1.0-38
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u2
lxc-pve: 2.0.6-1
lxcfs: 2.0.5-pve1
criu: 1.6.0-1
novnc-pve: 0.5-8
smartmontools: 6.5+svn4324-1~pve80
fence-agents-pve: not correctly installed
proxmox-ve: 4.3-72 (running kernel: 4.4.21-1-pve)
pve-manager: 4.3-12 (running version: 4.3-12/6894c9d9)
pve-kernel-4.4.6-1-pve: 4.4.6-48
pve-kernel-3.10.0-5-pve: 3.10.0-19
pve-kernel-4.4.13-2-pve: 4.4.13-58
pve-kernel-4.4.21-1-pve: 4.4.21-71
pve-kernel-4.2.8-1-pve: 4.2.8-41
pve-kernel-3.10.0-8-pve: 3.10.0-30
pve-kernel-4.4.24-1-pve: 4.4.24-72
pve-kernel-4.2.2-1-pve: 4.2.2-16
pve-kernel-4.2.3-2-pve: 4.2.3-22
lvm2: 2.02.116-pve3
corosync-pve: 2.4.0-1
libqb0: 1.0-1
pve-cluster: 4.0-47
qemu-server: 4.0-96
pve-firmware: 1.1-10
libpve-common-perl: 4.0-83
libpve-access-control: 4.0-19
libpve-storage-perl: 4.0-68
pve-libspice-server1: 0.12.8-1
vncterm: 1.2-1
pve-docs: 4.3-17
pve-qemu-kvm: 2.7.0-8
pve-container: 1.0-85
pve-firewall: 2.0-31
pve-ha-manager: 1.0-38
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u2
lxc-pve: 2.0.6-1
lxcfs: 2.0.5-pve1
criu: 1.6.0-1
novnc-pve: 0.5-8
smartmontools: 6.5+svn4324-1~pve80
fence-agents-pve: not correctly installed
pve-manager: 4.3-12 (running version: 4.3-12/6894c9d9)
pve-kernel-4.4.6-1-pve: 4.4.6-48
pve-kernel-3.10.0-5-pve: 3.10.0-19
pve-kernel-4.4.13-2-pve: 4.4.13-58
pve-kernel-4.4.21-1-pve: 4.4.21-71
pve-kernel-4.2.8-1-pve: 4.2.8-41
pve-kernel-3.10.0-8-pve: 3.10.0-30
pve-kernel-4.4.24-1-pve: 4.4.24-72
pve-kernel-4.2.2-1-pve: 4.2.2-16
pve-kernel-4.2.3-2-pve: 4.2.3-22
lvm2: 2.02.116-pve3
corosync-pve: 2.4.0-1
libqb0: 1.0-1
pve-cluster: 4.0-47
qemu-server: 4.0-96
pve-firmware: 1.1-10
libpve-common-perl: 4.0-83
libpve-access-control: 4.0-19
libpve-storage-perl: 4.0-68
pve-libspice-server1: 0.12.8-1
vncterm: 1.2-1
pve-docs: 4.3-17
pve-qemu-kvm: 2.7.0-8
pve-container: 1.0-85
pve-firewall: 2.0-31
pve-ha-manager: 1.0-38
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u2
lxc-pve: 2.0.6-1
lxcfs: 2.0.5-pve1
criu: 1.6.0-1
novnc-pve: 0.5-8
smartmontools: 6.5+svn4324-1~pve80
fence-agents-pve: not correctly installed
Aktuell sieht die Cluster Verteilung so aus:
1)Master Node "proxmox" ist alleine und hat kein quorum
Quorum information
------------------
Date: Mon May 15 14:37:12 2017
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000001
Ring ID: 1/1133224
Quorate: No
Votequorum information
----------------------
Expected votes: 12
Highest expected: 12
Total votes: 1
Quorum: 7 Activity blocked
Flags:
Membership information
----------------------
Nodeid Votes Name
0x00000001 1 10.0.10.10 (local)
------------------
Date: Mon May 15 14:37:12 2017
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000001
Ring ID: 1/1133224
Quorate: No
Votequorum information
----------------------
Expected votes: 12
Highest expected: 12
Total votes: 1
Quorum: 7 Activity blocked
Flags:
Membership information
----------------------
Nodeid Votes Name
0x00000001 1 10.0.10.10 (local)
Quorum information
------------------
Date: Mon May 15 14:38:06 2017
Quorum provider: corosync_votequorum
Nodes: 6
Node ID: 0x00000002
Ring ID: 2/1133020
Quorate: Yes
Votequorum information
----------------------
Expected votes: 6
Highest expected: 6
Total votes: 6
Quorum: 4
Flags: Quorate
Membership information
----------------------
Nodeid Votes Name
0x00000002 1 10.0.10.12 (local)
0x0000000c 1 10.0.10.13
0x00000003 1 10.0.10.14
0x00000007 1 10.0.10.21
0x00000008 1 10.0.10.22
0x00000009 1 10.0.10.23
------------------
Date: Mon May 15 14:38:06 2017
Quorum provider: corosync_votequorum
Nodes: 6
Node ID: 0x00000002
Ring ID: 2/1133020
Quorate: Yes
Votequorum information
----------------------
Expected votes: 6
Highest expected: 6
Total votes: 6
Quorum: 4
Flags: Quorate
Membership information
----------------------
Nodeid Votes Name
0x00000002 1 10.0.10.12 (local)
0x0000000c 1 10.0.10.13
0x00000003 1 10.0.10.14
0x00000007 1 10.0.10.21
0x00000008 1 10.0.10.22
0x00000009 1 10.0.10.23
Quorum information
------------------
Date: Mon May 15 14:39:47 2017
Quorum provider: corosync_votequorum
Nodes: 5
Node ID: 0x00000004
Ring ID: 4/1133144
Quorate: No
Votequorum information
----------------------
Expected votes: 12
Highest expected: 12
Total votes: 5
Quorum: 7 Activity blocked
Flags:
Membership information
----------------------
Nodeid Votes Name
0x00000004 1 10.0.10.15 (local)
0x00000005 1 10.0.10.16
0x00000006 1 10.0.10.17
0x0000000a 1 10.0.10.25
0x0000000b 1 10.0.10.26
------------------
Date: Mon May 15 14:39:47 2017
Quorum provider: corosync_votequorum
Nodes: 5
Node ID: 0x00000004
Ring ID: 4/1133144
Quorate: No
Votequorum information
----------------------
Expected votes: 12
Highest expected: 12
Total votes: 5
Quorum: 7 Activity blocked
Flags:
Membership information
----------------------
Nodeid Votes Name
0x00000004 1 10.0.10.15 (local)
0x00000005 1 10.0.10.16
0x00000006 1 10.0.10.17
0x0000000a 1 10.0.10.25
0x0000000b 1 10.0.10.26
Wie bekomme ich es nun hin, dass die 10.0.10.10 wieder der "Master" ist und die anderen Nodes diesem Cluster beitreten? Ein "pvecm node add 10.0.10.10 -f" klappt leider nicht "unable to copy ssh ID: cat: write error: Permission denied".