pvecm nodes Name falsch?

jraf@Eurolog

New Member
Aug 18, 2017
6
0
1
42
Hallo allerseits,

ich habe im Moment einen Testcluster mit Proxmox 4.3.1 mit 5 Nodes. Ich ersetze jetzt die einzelnen Server durch neue leistungsfähigere Hardware und installiere dafür Proxmox neu auf diesen Maschinen.
Ich habe erfolgreich 2 Cluster Nodes ausgetauscht, hat alles Bestens geklappt. Jetzt habe ich den dritten Server ersetzt und stoße dabei auf ein Problem, und zwar:
Ich möchte vom Node1 VMs auf auf den neulich ersetzten Node4 migrieren - Node1 erzählt mir jetzt aber "No such cluster node". Wenn ich auf Node1 "pvecm nodes" ausführe zeigt er mir in der Liste Node4 mit dem FQDN, alle anderen Nodes nur mit dem Hostname (so wie es sein sollte). Auf allen anderen Nodes liefert "pvecm nodes" eine korrekte Liste. Wo ist denn jetzt hier der Fehler?
 
Bitte den output der jeweiligen commands und die corosync.conf ( /etc/pve/corosync.conf ) posten, am besten vom betroffenen und einem anderen Node, posten.
 
Auf Node1 sieht das so aus:

Code:
root@elotstpve1:~# pvecm nodes

Membership information
----------------------
    Nodeid      Votes Name
         1          1 elotstpve1 (local)
         2          1 elotstpve2
         3          1 elotstpve3
         4          1 elotstpve4.open4logistics.de
         5          1 elotstpve5
         6          1 elotstpve6

root@elotstpve1:~# cat /etc/pve/corosync.conf
logging {
  debug: off
  to_syslog: yes
}

nodelist {
  node {
    name: elotstpve3
    nodeid: 3
    quorum_votes: 1
    ring0_addr: elotstpve3
  }

  node {
    name: elotstpve6
    nodeid: 6
    quorum_votes: 1
    ring0_addr: elotstpve6
  }

  node {
    name: elotstpve4
    nodeid: 4
    quorum_votes: 1
    ring0_addr: elotstpve4
  }

  node {
    name: elotstpve2
    nodeid: 2
    quorum_votes: 1
    ring0_addr: elotstpve2
  }

  node {
    name: elotstpve5
    nodeid: 5
    quorum_votes: 1
    ring0_addr: elotstpve5
  }

  node {
    name: elotstpve1
    nodeid: 1
    quorum_votes: 1
    ring0_addr: elotstpve1
  }

}

quorum {
  provider: corosync_votequorum
}

totem {
  cluster_name: elotstpve
  config_version: 10
  ip_version: ipv4
  secauth: on
  version: 2
  interface {
    bindnetaddr: 10.5.100.111
    ringnumber: 0
  }

}

Auf Node4 sieht es so aus:

Code:
root@elotstpve4:~# pvecm nodes
Membership information
----------------------
    Nodeid      Votes Name
         1          1 elotstpve1
         2          1 elotstpve2
         3          1 elotstpve3
         4          1 elotstpve4 (local)
         5          1 elotstpve5
         6          1 elotstpve6

root@elotstpve4:~# cat /etc/pve/corosync.conf
logging {
  debug: off
  to_syslog: yes
}

nodelist {
  node {
    name: elotstpve3
    nodeid: 3
    quorum_votes: 1
    ring0_addr: elotstpve3
  }

  node {
    name: elotstpve6
    nodeid: 6
    quorum_votes: 1
    ring0_addr: elotstpve6
  }

  node {
    name: elotstpve4
    nodeid: 4
    quorum_votes: 1
    ring0_addr: elotstpve4
  }

  node {
    name: elotstpve2
    nodeid: 2
    quorum_votes: 1
    ring0_addr: elotstpve2
  }

  node {
    name: elotstpve5
    nodeid: 5
    quorum_votes: 1
    ring0_addr: elotstpve5
  }

  node {
    name: elotstpve1
    nodeid: 1
    quorum_votes: 1
    ring0_addr: elotstpve1
  }

}

quorum {
  provider: corosync_votequorum
}

totem {
  cluster_name: elotstpve
  config_version: 10
  ip_version: ipv4
  secauth: on
  version: 2
  interface {
    bindnetaddr: 10.5.100.111
    ringnumber: 0
  }

}
Hier nochmal zum Vergleich auf Cluster Node2:

Code:
root@elotstpve2:~# pvecm nodes
Membership information
----------------------
    Nodeid      Votes Name
         1          1 elotstpve1
         2          1 elotstpve2 (local)
         3          1 elotstpve3
         4          1 elotstpve4
         5          1 elotstpve5
         6          1 elotstpve6

Also eigentlich alles richtig, ausser der Name von Node4 auf Node1.
 
Last edited by a moderator:
Hmm, in der tat etwas komisch. Ich würd jetzt mal /etc/hostname und /etc/hosts kontrollieren, einfach zur Sicherheit.

Soweit ich sehe hat nur Node 1 ein "falsches Sicht der Dinge", eventuell dort einaml den corosync und pve-cluster service neustarten:
Code:
systemctl restart pve-cluster corosync

Ist normal problemlos, solang HA nicht aktiv ist - für den fall kann ich auch noch Anweisungen geben.

Interesse halber wäre der output folgendes Schnipsel Interessent:
Code:
perl -we 'use PVE::Cluster; use Data::Dumper; PVE::Cluster::cfs_update; print Dumper(PVE::Cluster::get_members()) . "\n";'
(Liest genau die Information aus welche der "No such Cluster Node" check verwendet und gibt sie vollständig aus.)
 
Last edited:
Wenn ich den Code auf dem Node1 ausführe dann taucht die 4 tatsächlich nicht im Ergebnis auf - er kennt den Node also gar nicht, nicht einmal unter dem "falschen" Namen.

root@elotstpve1:~# perl -we 'use PVE::Cluster; use Data::Dumper; PVE::Cluster::cfs_update; print Dumper(PVE::Cluster::get_members()) . "\n";'
$VAR1 = {
'elotstpve3' => {
'ip' => '10.5.100.113',
'online' => 1,
'id' => 3
},
'elotstpve1' => {
'id' => 1,
'online' => 1,
'ip' => '10.5.100.111'
},
'elotstpve2' => {
'online' => 1,
'id' => 2,
'ip' => '10.5.100.112'
},
'elotstpve6' => {
'online' => 1,
'id' => 6,
'ip' => '10.5.100.116'
},
'elotstpve5' => {
'id' => 5,
'online' => 1,
'ip' => '10.5.100.115'
}
};

Ich starte mal die Cluster-Dienste auf der 1 neu, mal schauen ob es sich dann ändert.

Ok nach dem Neustart des Corosync Service passt es wieder. Besten Dank auch für das schnelle Feedback!
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!