[SOLVED] Cluster - Communication failure

MarcelW

Member
Feb 10, 2019
69
3
8
33
Hallo zusammen,

ich habe heute einen Cluster aus erstmals zwei Nodes erstellt, das hat auch wunderbar geklappt.
Es gibt dazu ein Management VLAN, über welches die zwei Nodes kommunizieren können.

Darüber kommunizieren diese auch.
Ich erreiche Proxmox derzeit noch über eine normale IPv4 im Internet.

Wenn ich jetzt auf die IP von node1 gehe, sehe ich beide Nodes und die dort laufenden VMs in der Liste.
Kann aber beispielsweise keine Informationen der node2 abrufen (CPU-Load, RAM, etc.) und kann über node1 auch keine VMs der node2 konfigurieren.

Wo habe ich den Fehler? Er zeigt immer nur "Loading" und schließlich "Communication failure (0)".

Grüße
Marcel
 
Kannst du deine Netzwerk- und Corosynckonfiguration schicken?
Code:
/etc/network/interfaces
/etc/pve/corosync.conf

Wenn sich öffentliche IP Adressen darin befinden diese unkenntlich machen!
 
/etc/network/interfaces:
Code:
auto lo
iface lo inet loopback

iface eno1 inet manual

iface eno1.621 inet manual

auto eno1.622
iface eno1.622 inet static
        address  x.x.x.x
        netmask  255.255.255.248
        up ip route add x.x.x.x/24 via 212.224.90.209
        up ip route add x.x.x.x/27 via 212.224.90.209

iface eno2 inet manual

auto vmbr1
iface vmbr1 inet static
        address  x.x.x.x
        netmask  27
        gateway  y.y.y.y
        bridge-ports eno1.621
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094
## VLAN 621 - Internet

auto vmbr0
iface vmbr0 inet manual
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0

auto vmbr1.10
iface vmbr1.10 inet static
        address  192.168.10.10
        netmask  24
## PVE Management Network

auto vmbr1.50
iface vmbr1.50 inet manual
## Test Network

/etc/pve/corosync.cfg:
Code:
logging {
  debug: off
  to_syslog: yes
}

nodelist {
  node {
    name: pve-n1
    nodeid: 1
    quorum_votes: 1
    ring0_addr: 192.168.10.10
  }
  node {
    name: pve-n2
    nodeid: 2
    quorum_votes: 1
    ring0_addr: 192.168.10.20
  }
}

quorum {
  provider: corosync_votequorum
}

totem {
  cluster_name: PVE01-CLUSTER
  config_version: 2
  interface {
    linknumber: 0
  }
  ip_version: ipv4-6
  secauth: on
  version: 2
}
 
Hmm, ich habe jetzt bei vmbr1.10 die MTU auf 1400 gesetzt, da gab es scheinbar Probleme.
Jetzt klappt's.
 
  • Like
Reactions: aaron

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!