pvecm nodes Name falsch?

Discussion in 'Proxmox VE (Deutsch)' started by jraf@Eurolog, Sep 12, 2018.

  1. jraf@Eurolog

    jraf@Eurolog New Member

    Joined:
    Aug 18, 2017
    Messages:
    6
    Likes Received:
    0
    Hallo allerseits,

    ich habe im Moment einen Testcluster mit Proxmox 4.3.1 mit 5 Nodes. Ich ersetze jetzt die einzelnen Server durch neue leistungsfähigere Hardware und installiere dafür Proxmox neu auf diesen Maschinen.
    Ich habe erfolgreich 2 Cluster Nodes ausgetauscht, hat alles Bestens geklappt. Jetzt habe ich den dritten Server ersetzt und stoße dabei auf ein Problem, und zwar:
    Ich möchte vom Node1 VMs auf auf den neulich ersetzten Node4 migrieren - Node1 erzählt mir jetzt aber "No such cluster node". Wenn ich auf Node1 "pvecm nodes" ausführe zeigt er mir in der Liste Node4 mit dem FQDN, alle anderen Nodes nur mit dem Hostname (so wie es sein sollte). Auf allen anderen Nodes liefert "pvecm nodes" eine korrekte Liste. Wo ist denn jetzt hier der Fehler?
     
  2. t.lamprecht

    t.lamprecht Proxmox Staff Member
    Staff Member

    Joined:
    Jul 28, 2015
    Messages:
    853
    Likes Received:
    85
    Bitte den output der jeweiligen commands und die corosync.conf ( /etc/pve/corosync.conf ) posten, am besten vom betroffenen und einem anderen Node, posten.
     
  3. jraf@Eurolog

    jraf@Eurolog New Member

    Joined:
    Aug 18, 2017
    Messages:
    6
    Likes Received:
    0
    Auf Node1 sieht das so aus:

    Code:
    root@elotstpve1:~# pvecm nodes
    
    Membership information
    ----------------------
        Nodeid      Votes Name
             1          1 elotstpve1 (local)
             2          1 elotstpve2
             3          1 elotstpve3
             4          1 elotstpve4.open4logistics.de
             5          1 elotstpve5
             6          1 elotstpve6
    
    root@elotstpve1:~# cat /etc/pve/corosync.conf
    logging {
      debug: off
      to_syslog: yes
    }
    
    nodelist {
      node {
        name: elotstpve3
        nodeid: 3
        quorum_votes: 1
        ring0_addr: elotstpve3
      }
    
      node {
        name: elotstpve6
        nodeid: 6
        quorum_votes: 1
        ring0_addr: elotstpve6
      }
    
      node {
        name: elotstpve4
        nodeid: 4
        quorum_votes: 1
        ring0_addr: elotstpve4
      }
    
      node {
        name: elotstpve2
        nodeid: 2
        quorum_votes: 1
        ring0_addr: elotstpve2
      }
    
      node {
        name: elotstpve5
        nodeid: 5
        quorum_votes: 1
        ring0_addr: elotstpve5
      }
    
      node {
        name: elotstpve1
        nodeid: 1
        quorum_votes: 1
        ring0_addr: elotstpve1
      }
    
    }
    
    quorum {
      provider: corosync_votequorum
    }
    
    totem {
      cluster_name: elotstpve
      config_version: 10
      ip_version: ipv4
      secauth: on
      version: 2
      interface {
        bindnetaddr: 10.5.100.111
        ringnumber: 0
      }
    
    }
    
    Auf Node4 sieht es so aus:

    Code:
    root@elotstpve4:~# pvecm nodes
    Membership information
    ----------------------
        Nodeid      Votes Name
             1          1 elotstpve1
             2          1 elotstpve2
             3          1 elotstpve3
             4          1 elotstpve4 (local)
             5          1 elotstpve5
             6          1 elotstpve6
    
    root@elotstpve4:~# cat /etc/pve/corosync.conf
    logging {
      debug: off
      to_syslog: yes
    }
    
    nodelist {
      node {
        name: elotstpve3
        nodeid: 3
        quorum_votes: 1
        ring0_addr: elotstpve3
      }
    
      node {
        name: elotstpve6
        nodeid: 6
        quorum_votes: 1
        ring0_addr: elotstpve6
      }
    
      node {
        name: elotstpve4
        nodeid: 4
        quorum_votes: 1
        ring0_addr: elotstpve4
      }
    
      node {
        name: elotstpve2
        nodeid: 2
        quorum_votes: 1
        ring0_addr: elotstpve2
      }
    
      node {
        name: elotstpve5
        nodeid: 5
        quorum_votes: 1
        ring0_addr: elotstpve5
      }
    
      node {
        name: elotstpve1
        nodeid: 1
        quorum_votes: 1
        ring0_addr: elotstpve1
      }
    
    }
    
    quorum {
      provider: corosync_votequorum
    }
    
    totem {
      cluster_name: elotstpve
      config_version: 10
      ip_version: ipv4
      secauth: on
      version: 2
      interface {
        bindnetaddr: 10.5.100.111
        ringnumber: 0
      }
    
    }
    
    Hier nochmal zum Vergleich auf Cluster Node2:

    Code:
    root@elotstpve2:~# pvecm nodes
    Membership information
    ----------------------
        Nodeid      Votes Name
             1          1 elotstpve1
             2          1 elotstpve2 (local)
             3          1 elotstpve3
             4          1 elotstpve4
             5          1 elotstpve5
             6          1 elotstpve6
    
    Also eigentlich alles richtig, ausser der Name von Node4 auf Node1.
     
    #3 jraf@Eurolog, Sep 12, 2018
    Last edited by a moderator: Sep 12, 2018
  4. t.lamprecht

    t.lamprecht Proxmox Staff Member
    Staff Member

    Joined:
    Jul 28, 2015
    Messages:
    853
    Likes Received:
    85
    Hmm, in der tat etwas komisch. Ich würd jetzt mal /etc/hostname und /etc/hosts kontrollieren, einfach zur Sicherheit.

    Soweit ich sehe hat nur Node 1 ein "falsches Sicht der Dinge", eventuell dort einaml den corosync und pve-cluster service neustarten:
    Code:
    systemctl restart pve-cluster corosync
    
    Ist normal problemlos, solang HA nicht aktiv ist - für den fall kann ich auch noch Anweisungen geben.

    Interesse halber wäre der output folgendes Schnipsel Interessent:
    Code:
    perl -we 'use PVE::Cluster; use Data::Dumper; PVE::Cluster::cfs_update; print Dumper(PVE::Cluster::get_members()) . "\n";'
    
    (Liest genau die Information aus welche der "No such Cluster Node" check verwendet und gibt sie vollständig aus.)
     
    #4 t.lamprecht, Sep 12, 2018
    Last edited: Sep 12, 2018
  5. jraf@Eurolog

    jraf@Eurolog New Member

    Joined:
    Aug 18, 2017
    Messages:
    6
    Likes Received:
    0
    Wenn ich den Code auf dem Node1 ausführe dann taucht die 4 tatsächlich nicht im Ergebnis auf - er kennt den Node also gar nicht, nicht einmal unter dem "falschen" Namen.

    root@elotstpve1:~# perl -we 'use PVE::Cluster; use Data::Dumper; PVE::Cluster::cfs_update; print Dumper(PVE::Cluster::get_members()) . "\n";'
    $VAR1 = {
    'elotstpve3' => {
    'ip' => '10.5.100.113',
    'online' => 1,
    'id' => 3
    },
    'elotstpve1' => {
    'id' => 1,
    'online' => 1,
    'ip' => '10.5.100.111'
    },
    'elotstpve2' => {
    'online' => 1,
    'id' => 2,
    'ip' => '10.5.100.112'
    },
    'elotstpve6' => {
    'online' => 1,
    'id' => 6,
    'ip' => '10.5.100.116'
    },
    'elotstpve5' => {
    'id' => 5,
    'online' => 1,
    'ip' => '10.5.100.115'
    }
    };

    Ich starte mal die Cluster-Dienste auf der 1 neu, mal schauen ob es sich dann ändert.

    Ok nach dem Neustart des Corosync Service passt es wieder. Besten Dank auch für das schnelle Feedback!
     
  1. This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
    By continuing to use this site, you are consenting to our use of cookies.
    Dismiss Notice