Cluster - SSL3 - certificate verfiy failed

Bitzor

New Member
Jan 3, 2017
15
0
1
27
Hallo liebe Community!

Ich habe heute versucht ein Cluster aufzusetzen (Sparate Network Cluster) und stehe grade vor einer kleinen (hoffentlich) Hürde.

Kurz vorab:
Ich sehe auf beiden Server die Nodes aber auf jedem Node ist nur der eigene Online.
BeispieL.
Node 1 : one
Node 2 : two

Auf Node 1 ist nur one komplett da und bei two kommt dann "ssl3_get_server_certificate: certificate verify failed"
Auf Node 2 ist dementsprechend nur two da und bei one kommt : ssl3_get_server_certificate: certificate verify failed

Nun meine Frage:
Wieso kann er das Zertifikat nicht verifizieren? Bzw. hat einer einen Lösungsvorschlag?

Zuvor kam erst der Fehler, dass er den Hostname nicht "Lookupen" konnte.
Dementsprechend, habe ich die IP vom anderen Host mit dem Hostname in der /etc/hosts versehen und jetzt kommt das Problem.

Ich würde mich über eine Antwort freuen!

Schönen Tag noch zusammen
 
Eigene Zertifikate benutzt du nicht oder?
Was sagt denn ein "pvecm nodes" und ein "pvecm status".
 
Hallo! Danke für deine Antwort.

Nein benutze nur default Sachen.
Habe auch mal zum testen alle Zertifikate aus entfernt : https://pve.proxmox.com/wiki/HTTPS_Certificate_Configuration_(Version_4.x_and_newer)

und dann mal mit pvecm updatecerts die Zertifikate auf den Nodes aktualisiert.

Interessanterweise, zeigt pvecm nodes nur einen Node an:

Membership information
----------------------
Nodeid Votes Name
1 1 one-corsync (local)​

beim zweiten zeigt er auch nur sich an.

Ich weiß nicht ob es damit was zutun hat, dass die Server nicht im selben Netz sind. Bin so vorgegangen:

Quelle : https://pve.proxmox.com/wiki/Separate_Cluster_Network

Interface konfiguriert : (alles so übernommen/ sind ja Lokale Settings)

1)
auto eth1
iface eth1 inet static
address 10.10.1.151
netmask 255.255.255.0

2)
Host File geupdatet auf beiden Nodes und dann mit dem jeweiligen Hostname mit der IP eingetragen

3)
pvecm create clust -bindnet0_addr 10.10.1.151 -ring0_addr one-corosync

4)
pvecm add IPvomNode1(von Punkt 3) -ring0_addr two-corosync


Jedoch steht im Webinterface :

Status.PNG

Sicht vom Node 1 :

Status2.PNG
Wobei unten die Systeme dann wieder getauscht sind bei dem anderen Node.

Und das ist die exakte Fehlermeldung:
Status3.PNG
 
Die müssen im gleichen Netz sein, da die Kommunikation über Multicast läuft, keine Ahnung ob es auch funzt wenn die Swtiches hast die Mulitcastrouting unterstützten. Aber wir machen es immer so: Ein eigenes Netz nur für die Clusterkommunikation, so wir es auch von PVE empfohlen. Wenn dann viel Daten drüber gehen ist das sowiso nicht gut wenn das ganze Netz der VMs auch mit Multcast überschemmt wird. Ein eigenes VLAN auf dem Swicht für dein Clusternetz, oder nen eigenen PHY Switch nur für das.
Der Befehl würde auch anders aussehen:
Code:
pvecm create clust -bindnet0_addr 10.10.1.0 -ring0_addr one-corosync
10.10.1.0 weil ja ein /24 Netz hast, das wird ja wohl bei 0 Anfangen, zumindest wäre das der Default. "one-corosync" muss dann von jedem Host aufgelöst werden können, wir nehmen da immer die IP, entweder IPV6 oder V4 beides geht. Ausserdem fehlt dir in deiner config von oben der Gateway.
Hier noch eine kleine Hilfestellung: https://pve.proxmox.com/wiki/Proxmox_VE_4.x_Cluster
 
Hey,
das mit Multicast hab ich auch schon irgendwo gelesen.

Nur sind die Proxmox Systeme bei OVH. Ein Kollege hat sich dort einen Proxmox Server gekauft & dann wollten wir ein Cluster Bilden.
Dazu haben wir die Seite benutzt :
https://pve.proxmox.com/wiki/Separate_Cluster_Network

Also müsste es ja theoretisch möglich sein ohne die Multicast Einstellungen?
 
Ok, muss ich zugeben lese ich auch zum ersten mal... hab auch noch nie probiert. Event. kann dir sonst hier wer zu dem Thema weiter helfen... :)
 
Trotzdem danke!
Wenn du doch noch irgendeine Idee hast, wäre ich für jedes Geistesblitz zu haben.

Eine Frage noch. Kann ein nicht Vollständiges Cluster IO Waits verursachen?
Aus irgendeinem Grund, habe ich extrem hohe IO Waits.

Festplatte ist okay.

Denke mal, dass der da wohl ganze Zeit was im Hintergrund schreibt oder versucht.

Aber wie gesagt, wenn noch jemand ne Idee hat, wäre ich sehr Dankbar für eine Hilfestellung :)!

Ich glaube ich Poste auch wenn ich bis Morgen nichts neues habe auch mal einen Englischen Beitrag.
 
Also glaub nicht das dies was mit I/O zu tun haben könnte. Lauf denn schon was auf den Geräten?
 
Ja 3 LXC Maschinen & eine QM bzw. KVM Maschine.
Die I/O Waits sind zwischen 0.6 bis 2.1 manchmal gibt es Spikes manchmal auch bei 0.1-0
Spikes gehen hoch bis zu 15

Ich hab wohl die Vermutung, dass es am SoftwareRAID liegt irgendwie.
So stark waren die vorher auch noch nicht.

Soweit ich das auch gesehen habe, waren die Werte auch schon so hoch ohne Maschinen.
 
Achso, na ist na noch nicht viel, kommt auch drauf an was man an HW einsetzt. Softwareraid und ZFS werden immer mehr anzeigen da das System die Platten ja direkt sieht, bei HW sieht man meist die 0-Linie was aber nicht richtig ist, da es ja sehr wohl ein Wait gibt. Es kommt auch auf die Anzahl der Festplatten und deren Geschwindigkeiten an. Der Wert ist mehr zu interpretieren. Ich hab hier 6 HDDs im ZFS Raid10 und ein RaidZ1 mit SSDs. I/O geht schon mal auf 50 rauf, aber das macht hier nichts, man merkt keinen Performanceverlust.

Wie viele Platten hast den verbaut? Type/Geschwindigkeit.
 
Sofern das nur Spikes sind ist das ja okay aber wenn das durchgehend so hoch ist, kann sich das ja schon auf die VMS auswirken eigentlich.
Hab den Fehler gefunden.

Es wurde aus irgendeinem Grund permanent eine LOG beschrieben.
Als ich mir mal die größten Files angezeigt habe im var Verzeichnis war ich verblüfft, wie schnell eine Datei an "Größe" zunehmen kann.

Gelöscht -> zack geht wieder

Eine Frage hab ich jetzt aber doch noch.
2ebca4d93ff646788ecee60274216113.png

Ich will das Cluster jetzt entfernen aber weiß nicht wie ich das anstelle.

pvecm delnode entfernt doch nur den Node von dem Cluster oder?
Bei mir wird aber ja nur der Lokale Node angezeigt.
Ist das egal? Weiß leider nicht wie Proxmox das händelt & hab noch nie zuvor mit einem Cluster Verbund in Proxmox gearbeitet.

Schönen Abend noch!
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!