PVE-zsync Frage

achim22

Renowned Member
May 21, 2015
414
5
83
58
Dortmund
Hallo zusammen,
ich beschäftige mich gerade mal wieder mit PVE-zsync und habe unter VirtualBox zweimal Proxmox aufgesetzt.
( Als ZFS als Raid0 )

Jetzt möchte ich von A nach B den Gast 100 schieben.
( Auf B gibt es noch keinen Gast )
Klappt auch!:)
Muss ich dann auf B den Gast noch aktivieren ? Er taucht in der GUI nicht auf!



Proxmox A:
root@pve:~# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
rpool 7.94G 1.28G 6.66G - 8% 16% 1.00x ONLINE -
root@pve:~#



root@pve:~# pve-zsync sync --source 100 --dest 192.168.178.52:rpool --verbose --maxsnap 2 --name test1
send from @ to rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02 estimated size is 409M
total estimated size is 409M
TIME SENT SNAPSHOT
13:24:04 55.2M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02
13:24:05 66.6M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02
13:24:06 101M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02
13:24:07 130M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02
13:24:08 175M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02
13:24:09 202M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02
13:24:10 247M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02
13:24:11 272M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02
13:24:12 311M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02
13:24:13 329M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02
13:24:14 380M rpool/data/subvol-100-disk-1@rep_test1_2016-12-02_13:24:02


Proxmox B:
root@pve:~# zpool list

NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
rpool 7.94G 1.16G 6.78G - 7% 14% 1.00x ONLINE -

root@pve:~#

Schöne Grüße
Achim
 
pve-zsync dient (derzeit) nur der replizierung für schnelle disaster recovery. die eigentliche recovery der VM/des CT im ausfallsfall muss manuell erfolgen.
 
pve-zsync hat gegenüber backup + restore den vorteil, dass es inkrementell funktioniert - d.h. im normalfall werden nur die änderungen synchronisiert, was deutlich öfteres synchronisieren ermöglicht
 
Wenn Ziel und Quellserver ident konfiguriert sind macht das schon Spass. Beide Server gleiche Pools gleiche Datasets, macht auch Sinn gleiche Pfade. Hab mir zum PVEzsync von VMs noch nen zusätzlichen Cron angerichtet der mir die Vmconfigs gleich am Ziel an die richtige Stelle kopiert.
Code:
cp /var/lib/pve-zsync/VMIDS /etc/pve/qemu-server/.
Hast du die Server vorher zu nem Cluster verbunden, musst natürlich noch nen idchange einbauen. Fast schon ein kleines HA ;)
Die VMs kannst dann sofort am zweiten Server starten.
 
werde mich heute oder morgen wieder dran setzten und weiter machen :).
Macht ja auch irgendwie Spass, was andere nicht verstehen können ;)
Ich setze dann erst einmal den Cluster auf.

Müssen die eigentlich im gleichen Netz sein ?
Ich habe ja mehrere unterschiedliche Root-Server die ich dann so aufbauen möchte.

Was ist idchange ? Das sagt mir leider nichts.

Gruß
Achim
 
Last edited:
Ich habe habe jetzt einmal mit dem Cluster angefangen.

hp1(192.168.178.51) läuft
root@pve:~# pvecm status
Quorum information
------------------
Date: Sat Dec 3 13:38:27 2016
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000001
Ring ID: 1/20
Quorate: Yes

Votequorum information
----------------------
Expected votes: 1
Highest expected: 1
Total votes: 1
Quorum: 1
Flags: Quorate

Membership information
----------------------
Nodeid Votes Name
0x00000001 1 192.168.178.51 (local)

hp 2 (192.168.178.52) will nicht so wirklich. Der bleibt hängen mit einem
waiting for quorum...


root@pve:~# pvecm add 192.168.178.51
The authenticity of host '192.168.178.51 (192.168.178.51)' can't be established.
ECDSA key fingerprint is cc:ae:a4:ab:ff:a7:98:de:d9:5e:46:c8:a4:77:a9:d4.
Are you sure you want to continue connecting (yes/no)? yes
node pve already defined
copy corosync auth key
stopping pve-cluster service
backup old database
Job for corosync.service failed. See 'systemctl status corosync.service' and 'journalctl -xn' for details.
waiting for quorum...
 
Ja der Cluster muss sich im gleichen Netz befinden. Also was die Ringadressen angeht. Das soll auf einem eigenen PHY Switch liegen. Nicht auf z.B. vmbr0. Siehe auch Anforderungen: https://pve.proxmox.com/wiki/Proxmox_VE_4.x_Cluster Corosync ist da mit den Latenzzeiten sehr genau.
 
Ich bin noch bei OVH. Da sollte es klappen da die ja ein vRack haben.
Bin aber am überlegen nach Hetzner zu gehen.
pve-zsync klappt aber auch ohne Cluster, oder?

Gruß
Achim
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!