Ich habe gesamt 4 Nodes.
Node-3 muss in ein anderes Subnet. (ich benutze nur lokale Storages).
Auf einem Node habe ich nun die IP (alt: 192.168.0.9, neu: 10.8.5.10) geändert, dabei habe ich.
1. Die IP per Webif am Node-3 geändert, sieht dann so aus
2. /etc/hosts angepasst:
3. Node runtergefahren
4. VLAN am Switch angepasst
5. Node gestartet
Netzwerktechnisch ist alles OK, erreichbar.
Die Datei /etc/pve/corosync.conf habe ich NICHT angepasst. (hier steht nur die IP von Node1 darin).
Am Node 3 sehe ich folgendes im LOG:
Kann ich noch andere hilfreiche Logs liefern ?
Danke für Tips.
Node-3 muss in ein anderes Subnet. (ich benutze nur lokale Storages).
Auf einem Node habe ich nun die IP (alt: 192.168.0.9, neu: 10.8.5.10) geändert, dabei habe ich.
1. Die IP per Webif am Node-3 geändert, sieht dann so aus
Code:
root@px3 ~ > cat /etc/network/interfaces
# network interface settings; autogenerated
# Please do NOT modify this file directly, unless you know what
# you're doing.
#
# If you want to manage part of the network configuration manually,
# please utilize the 'source' or 'source-directory' directives to do
# so.
# PVE will preserve these directives, but will NOT its network
# configuration from sourced files, so do not attempt to move any of
# the PVE managed interfaces into external files!
auto lo
iface lo inet loopback
iface eth0 inet manual
auto vmbr0
iface vmbr0 inet static
address 10.8.5.10
netmask 255.255.255.0
gateway 10.8.5.1
bridge-ports eth0
bridge-stp off
bridge-fd 0
2. /etc/hosts angepasst:
Code:
root@px3 ~ > cat /etc/hosts
127.0.0.1 localhost
10.8.5.10 px3.mydomain.net px3
# The following lines are desirable for IPv6 capable hosts
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
3. Node runtergefahren
4. VLAN am Switch angepasst
5. Node gestartet
Netzwerktechnisch ist alles OK, erreichbar.
Die Datei /etc/pve/corosync.conf habe ich NICHT angepasst. (hier steht nur die IP von Node1 darin).
Code:
root@px1 / > cat /etc/pve/corosync.conf
logging {
debug: off
to_syslog: yes
}
nodelist {
node {
name: px1
nodeid: 1
quorum_votes: 1
ring0_addr: px1
}
node {
name: px2
nodeid: 2
quorum_votes: 1
ring0_addr: px2
}
node {
name: px3
nodeid: 3
quorum_votes: 1
ring0_addr: px3
}
node {
name: px4
nodeid: 4
quorum_votes: 1
ring0_addr: px4
}
}
quorum {
provider: corosync_votequorum
}
totem {
cluster_name: Proxmox
config_version: 14
interface {
bindnetaddr: 192.168.0.7
ringnumber: 0
}
ip_version: ipv4
secauth: on
version: 2
}
Am Node 3 sehe ich folgendes im LOG:
Code:
Jan 4 14:04:00 px3 systemd[1]: Starting Proxmox VE replication runner...
Jan 4 14:04:00 px3 pvesr[19482]: trying to acquire cfs lock 'file-replication_cfg' ...
Jan 4 14:04:01 px3 pvesr[19482]: trying to acquire cfs lock 'file-replication_cfg' ...
Jan 4 14:04:02 px3 pvesr[19482]: trying to acquire cfs lock 'file-replication_cfg' ...
Jan 4 14:04:03 px3 pvesr[19482]: trying to acquire cfs lock 'file-replication_cfg' ...
Jan 4 14:04:04 px3 pvesr[19482]: trying to acquire cfs lock 'file-replication_cfg' ...
Jan 4 14:04:05 px3 pvesr[19482]: trying to acquire cfs lock 'file-replication_cfg' ...
Jan 4 14:04:06 px3 pvesr[19482]: trying to acquire cfs lock 'file-replication_cfg' ...
Jan 4 14:04:07 px3 pvesr[19482]: trying to acquire cfs lock 'file-replication_cfg' ...
Jan 4 14:04:08 px3 pvesr[19482]: trying to acquire cfs lock 'file-replication_cfg' ...
Jan 4 14:04:09 px3 pvesr[19482]: error with cfs lock 'file-replication_cfg': no quorum!
Jan 4 14:04:09 px3 systemd[1]: pvesr.service: Main process exited, code=exited, status=13/n/a
Jan 4 14:04:09 px3 systemd[1]: Failed to start Proxmox VE replication runner.
Jan 4 14:04:09 px3 systemd[1]: pvesr.service: Unit entered failed state.
Jan 4 14:04:09 px3 systemd[1]: pvesr.service: Failed with result 'exit-code'.
Kann ich noch andere hilfreiche Logs liefern ?
Danke für Tips.