Proxmox mit Openvpn + Standorte?

manim

New Member
Jul 13, 2019
2
0
1
34
Hi Leute,
habe schon gefühlt ganz google durchsucht und habe es nicht geschafft es rauszufinden, wie ich es schaffe.
2 Promox Systeme über Openvpn (verschieden Standorte) zu verbinden!
Und Ob und wenn ja, wie das überhaupt möglich wäre..

Die Basis für die Promox Installation ist soweit in Ordnung !

Ich habe auf dem "Master" einen Openvpn Server gesetzt im "tap" modus,

meine "interfaces" habe ich so angelegt !
(master)
========
iface eno1 inet manual
iface tap0 inet manual

auto vmbr0
iface vmbr0 inet static
address 51.15.x.x
netmask 255.255.255.0
gateway 51.15.x.x
bridge_ports eno1
bridge_stp off
bridge_fd 1
bridge_hello 2
bridge_maxage 12

auto vmbr1
iface vmbr1 inet static
address 10.8.0.1
netmask 255.255.255.0
bridge_ports tap0
bridge_stp off
bridge_fd 0
post-up route add -net 224.0.0.0 netmask 240.0.0.0 dev tab0
post-up echo 1 > /sys/devices/virtual/net/vmbr1/bridge/multicast_querier
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up echo 1 > /proc/sys/net/ipv4/conf/tap0/proxy_arp
post-up iptables -t nat -A POSTROUTING -s '10.10.10.0/24' -o tab0 -j MASQUERADE
post-down iptables -t nat -D POSTROUTING -s '10.10.10.0/24' -o tab0 -j MASQUERADE
========
Openvpn arbeite mit 10.8.0.0/24 netz (also die 10.8.0.1) ist meine IP, als tab0!
========
Hoch fährt das System mit der vmbr0 (als externe ip) und mit vmbr1 (openvpn)
========
vmbr1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 10.8.0.1 netmask 255.255.255.0 broadcast 10.8.0.255
inet6 fe80::a460:fdff:fecd:e4de prefixlen 64 scopeid 0x20<link>
ether 6a:56:3b:dc:03:ec txqueuelen 1000 (Ethernet)
RX packets 15 bytes 880 (880.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 24 bytes 1856 (1.8 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
=========

in der /etc/hosts
habe ich (da könnte der fehler sein)

==========
127.0.0.1 localhost

51.15.x.x sd-138352.dedibox.fr sd-138352

# The following lines are desirable for IPv6 capable hosts
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters

10.8.0.1 pve1.vlan sd-138352 pvelocalhost
10.8.0.2 pve2

============

für Server 2 (anderer Standort)

interfaces
=============
auto lo
iface lo inet loopback

iface enp1s0f0 inet manual
iface tap0 inet manual

auto vmbr0
iface vmbr0 inet static
address 51.15.x.x
netmask 255.255.255.0
gateway 51.15.x.x
bridge_ports enp1s0f0
bridge_stp off
bridge_fd 1
bridge_hello 2
bridge_maxage 12

auto vmbr1
iface vmbr1 inet static
address 10.8.0.2
netmask 255.255.255.0
bridge_ports tap0
bridge_stp off
bridge_fd 0
post-up route add -net 224.0.0.0 netmask 240.0.0.0 dev tab0
post-up echo 1 > /sys/devices/virtual/net/vmbr1/bridge/multicast_querier
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up echo 1 > /proc/sys/net/ipv4/conf/tap0/proxy_arp
post-up iptables -t nat -A POSTROUTING -s '10.10.10.0/24' -o tab0 -j MASQUERADE
post-down iptables -t nat -D POSTROUTING -s '10.10.10.0/24' -o tab0 -j MASQUERADE
============
die bridge fährt auf tab0 hoch mit :
=============
vmbr1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 10.8.0.2 netmask 255.255.255.0 broadcast 10.8.0.255
inet6 fe80::fc19:b1ff:fe48:9a56 prefixlen 64 scopeid 0x20<link>
ether 3e:71:ea:63:a2:48 txqueuelen 1000 (Ethernet)
RX packets 10 bytes 560 (560.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 22 bytes 1676 (1.6 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
=========
ein ping zu jeder Seite bekomme ich hin
->
64 bytes from 10.8.0.2: icmp_seq=1 ttl=64 time=1.09 ms
64 bytes from 10.8.0.2: icmp_seq=2 ttl=64 time=0.377 ms
64 bytes from 10.8.0.2: icmp_seq=3 ttl=64 time=0.538 ms
64 bytes from 10.8.0.2: icmp_seq=4 ttl=64 time=0.538 ms
and
64 bytes from 10.8.0.1: icmp_seq=1 ttl=64 time=0.643 ms
64 bytes from 10.8.0.1: icmp_seq=2 ttl=64 time=0.526 ms
64 bytes from 10.8.0.1: icmp_seq=3 ttl=64 time=0.522 ms
64 bytes from 10.8.0.1: icmp_seq=4 ttl=64 time=0.646 ms
-------
Die Host datei auf Server 2 (auch da könnte der fehler sein)
=======
127.0.0.1 localhost

51.15.x.x sd-144946.dedibox.fr sd-144946

# The following lines are desirable for IPv6 capable hosts
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters

10.8.0.2 pve2.vlan sd-144946 pvelocalhost
10.8.0.1 pve1.vlan
==========

ich erstelle mir auf server1 das cluster mit "pvecm create test"
...

Quorum information
------------------
Date: Sat Jul 13 07:58:23 2019
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000001
Ring ID: 1/8
Quorate: Yes

Votequorum information
----------------------
Expected votes: 1
Highest expected: 1
Total votes: 1
Quorum: 1
Flags: Quorate

Membership information
----------------------
Nodeid Votes Name
0x00000001 1 51.15.x.x (local)
==============
(warum da nicht die 10.8.0.1) steht weiß ich leider nicht, werde sie aber über pve add 10.8.0.1 auf node 2 adden wollen..
===========
Server 2 =
===========
pvecm add 10.8.0.1
Please enter superuser (root) password for '10.8.0.1':
Password for root@10.8.0.1: ***********
Establishing API connection with host '10.8.0.1'
The authenticity of host '10.8.0.1' can't be established.
X509 SHA256 key fingerprint is 4A:73:A0:7F:38:F3:04:36:A8:DC:3D:D2:0E:58:8B:4E:22:33:B9:E0:65:AC:46:7A:4B:9B:7F:47:AF:7A:F8:DC.
Are you sure you want to continue connecting (yes/no)? yes
Login succeeded.
Request addition of this node
Join request OK, finishing setup locally
stopping pve-cluster service
backup old database to '/var/lib/pve-cluster/backup/config-1562997563.sql.gz'
waiting for quorum...
==============
Das wars schon und da bleibt er stehen :(

im Syslog von Server 1 steht nur..

Jul 13 08:00:00 sd-138352 systemd[1]: Starting Proxmox VE replication runner...
Jul 13 08:00:00 sd-138352 pvesr[28117]: trying to acquire cfs lock 'file-replication_cfg' ...
Jul 13 08:00:01 sd-138352 pvesr[28117]: trying to acquire cfs lock 'file-replication_cfg' ...
Jul 13 08:00:02 sd-138352 pvesr[28117]: trying to acquire cfs lock 'file-replication_cfg' ...
Jul 13 08:00:03 sd-138352 pvesr[28117]: trying to acquire cfs lock 'file-replication_cfg' ...
Jul 13 08:00:04 sd-138352 pvesr[28117]: trying to acquire cfs lock 'file-replication_cfg' ...
Jul 13 08:00:05 sd-138352 pvesr[28117]: trying to acquire cfs lock 'file-replication_cfg' ...
Jul 13 08:00:06 sd-138352 pvesr[28117]: trying to acquire cfs lock 'file-replication_cfg' ...
Jul 13 08:00:07 sd-138352 pvesr[28117]: trying to acquire cfs lock 'file-replication_cfg' ...
Jul 13 08:00:08 sd-138352 pvesr[28117]: trying to acquire cfs lock 'file-replication_cfg' ...
Jul 13 08:00:09 sd-138352 pvesr[28117]: error with cfs lock 'file-replication_cfg': no quorum!
Jul 13 08:00:09 sd-138352 systemd[1]: pvesr.service: Main process exited, code=exited, status=13/n/a
Jul 13 08:00:09 sd-138352 systemd[1]: Failed to start Proxmox VE replication runner.
Jul 13 08:00:09 sd-138352 systemd[1]: pvesr.service: Unit entered failed state.
Jul 13 08:00:09 sd-138352 systemd[1]: pvesr.service: Failed with result 'exit-code'.

--------

aber ich komme nicht weiter..

Das Ziel :

2server, via OPENVPN als Cluster verbinden!
Jeder server arbeitet für sich, aber ich kann über 1 Oberfläche halt bei beiden Container anlegen..
und auch löschen, dass spart mir immer das aufmachen von 2 Oberflächen.. und deswegen kA ob das überhaupt geht :(

Ist mein erstes Mal.. ggf. kann mir einer einen Rat geben !
Dankeschön
 
deswegen kA ob das überhaupt geht :(

Es wird nicht klappen:
- ein Cluster muss immer aus mindestens 3 Knoten bestehen, sonst bekommst du kein Quorum und ohne Quorum klappt nichts mehr wenn ein Knoten weg ist.
- Cluster über VPN mit großer Latenz klappt auch nicht

Verwende zwei einzelne Server ohne Cluster, auch wenn du dann keine einheitliche Oberfläche hast, sondern zwei.
 
okay, verstehe. ist es einfacher wenn man zB 3x hetzner server via vswitch verbindet? Ja, mit 2 oder 3 Oberflächen ist das garkein Problem :p
 
okay, verstehe. ist es einfacher wenn man zB 3x hetzner server via vswitch verbindet?

Hetzner baut dir auch dein eigenes Netz auf, wenn du bereit bist dafür zu zahlen. Je nach Aufwand für die und euch ist es manchmal auch besser und billiger gleich ein RACK zu mieten und alles selbst zu machen inkl. Hardware. Die Hetzner Hardware ist keine Serverhardware, sondern Consumer/Prosumer Hardware und hat viele Dinge nicht, die man für einen Cluster schon benötigen würde wie ECC, redundante Netzteile, mehr Einschübe für Festplatten, generell mehr RAM usw. Das hängt aber alles von deinem Use-Case ab.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!