Hallo zusammen
Ich habe es nun endlich geschafft das mein Cluster kaufähig ist. Leider habe ich aber immer noch Probleme z.B wird der Node angezeigt. Aber ich kann nichts machen, im web GUI kommt immer Loading dann communication failure 0.
Ich habe hier im Forum schon nachgesehen, das eine problem mit broken pipe konnte ich lösen.
Nun ist dieser Fehler verschwunden nun taucht der oben genannte Fehler auf. Das Starten und Stopen des Clusters hat auch nichts geholfen cman ect. starten ohne Probleme.
Hoffe jemand kann mir helfen.
Hier meine Configs:
cluster.conf
pvecm status
pvecm node
fence_tool ls
hosts Datei merlin
hosts Datei artus
interfaces
cman Ausgabe beider Nodes
NACHTRAG
Hier noch der auszug des Logs
Ich habe es nun endlich geschafft das mein Cluster kaufähig ist. Leider habe ich aber immer noch Probleme z.B wird der Node angezeigt. Aber ich kann nichts machen, im web GUI kommt immer Loading dann communication failure 0.
Ich habe hier im Forum schon nachgesehen, das eine problem mit broken pipe konnte ich lösen.
Nun ist dieser Fehler verschwunden nun taucht der oben genannte Fehler auf. Das Starten und Stopen des Clusters hat auch nichts geholfen cman ect. starten ohne Probleme.
Hoffe jemand kann mir helfen.
Hier meine Configs:
cluster.conf
Code:
<?xml version="1.0"?>
<cluster name="avalon" config_version="4">
<cman keyfile="/var/lib/pve-cluster/corosync.authkey" transport="udpu" two_node="1" expected_votes="1"/>
<clusternodes>
<clusternode name="artus" votes="1" nodeid="1"/>
<clusternode name="merlin" votes="1" nodeid="2"/></clusternodes>
</cluster>
pvecm status
Code:
Version: 6.2.0
Config Version: 4
Cluster Name: avalon
Cluster Id: 6532
Cluster Member: Yes
Cluster Generation: 96
Membership state: Cluster-Member
Nodes: 2
Expected votes: 1
Total votes: 2
Node votes: 1
Quorum: 1
Active subsystems: 5
Flags: 2node
Ports Bound: 0
Node name: artus
Node ID: 1
Multicast addresses: 255.255.255.255
Node addresses: 176.9.17.8
pvecm node
Code:
Node Sts Inc Joined Name
1 M 96 2016-09-21 19:39:27 artus
2 M 96 2016-09-21 19:39:27 merlin
fence_tool ls
Code:
fence domain
member count 2
victim count 0
victim now 0
master nodeid 2
wait state none
members 1 2
hosts Datei merlin
Code:
# nameserver config
# IPv4
176.9.17.8 artus.rackserv.ch artus
176.9.17.4 merlin.rackserv.ch merlin
#
# IPv6
#::1 ip6-localhost ip6-loopback
#fe00::0 ip6-localnet
#ff00::0 ip6-mcastprefix
#ff02::1 ip6-allnodes
#ff02::2 ip6-allrouters
#ff02::3 ip6-allhosts
hosts Datei artus
Code:
# nameserver config
# IPv4
176.9.17.8 artus.rackserv.ch artus
176.9.17.4 merlin.rackserv.ch merlin
#
# IPv6
#::1 ip6-localhost ip6-loopback
#fe00::0 ip6-localnet
#ff00::0 ip6-mcastprefix
#ff02::1 ip6-allnodes
#ff02::2 ip6-allrouters
#ff02::3 ip6-allhosts
interfaces
Code:
# /etc/network/interfaces
#
auto lo
iface lo inet loopback
# device: eth0
iface eth0 inet manual
# IPv4 bridge
# (connect ONLY your firewall/router KVM instance here, this is the WAN device!)
auto vmbr0
iface vmbr0 inet static
address 176.9.17.8
netmask 255.255.255.255
broadcast 176.9.17.31
gateway 176.9.17.1
pointopoint 176.9.17.1
# for the subnet our primary IP belongs to
# up route add -net 148.251.52.64 netmask 255.255.255.255 gw 148.251.52$
# Virtual bridge settings
# this one is bridging physical eth0 interface
bridge_ports eth0
bridge_stp off
bridge_fd 0
# You need to
up ip route add 176.9.17.60/32 dev vmbr0
# Assure local routing of private IPv4 IP's from our
# Proxmox host via our firewall's WAN port
up ip route add 176.9.244.217 via 176.9.17.60 dev vmbr0
up ip route add 176.9.244.218 via 176.9.17.60 dev vmbr0
up ip route add 176.9.244.219 via 176.9.17.60 dev vmbr0
up ip route add 176.9.244.220 via 176.9.17.60 dev vmbr0
up ip route add 176.9.244.221 via 176.9.17.60 dev vmbr0
up ip route add 176.9.244.222 via 176.9.17.60 dev vmbr0
# IPv6 bridge
#iface vmbr0 inet6 static
# address 2a01:4f8:150:1108::3
# netmask 64
# up ip -6 route add 2a01:4f8:150:1108::2 dev vmbr0
# up ip -6 route add default via 2a01:4f8:150:1108::2
# Virtual switch for DMZ
# (connect your firewall/router KVM instance and private DMZ hosts here)
auto vmbr1
iface vmbr1 inet manual
bridge_ports none
bridge_stp off
bridge_fd 0
# Virtual switch for Private LAN
# (connect your firewall/router KVM instance and private hosts here)
auto vmbr2
iface vmbr2 inet manual
bridge_ports none
bridge_stp off
bridge_fd 0
cman Ausgabe beider Nodes
Code:
cluster is running.
NACHTRAG
Hier noch der auszug des Logs
Code:
tail -f corosync.log
Sep 21 20:39:07 corosync [CLM ] r(0) ip(176.9.17.4)
Sep 21 20:39:07 corosync [CLM ] r(0) ip(176.9.17.8)
Sep 21 20:39:07 corosync [CLM ] Members Left:
Sep 21 20:39:07 corosync [CLM ] Members Joined:
Sep 21 20:39:07 corosync [CLM ] r(0) ip(176.9.17.4)
Sep 21 20:39:07 corosync [TOTEM ] A processor joined or left the membership and a new membership was formed.
Sep 21 20:39:07 corosync [QUORUM] Members[2]: 1 2
Sep 21 20:39:07 corosync [QUORUM] Members[2]: 1 2
Sep 21 20:39:07 corosync [CPG ] chosen downlist: sender r(0) ip(176.9.17.8) ; members(old:1 left:0)
Sep 21 20:39:07 corosync [MAIN ] Completed service synchronization, ready to provide service.
Attachments
Last edited: