Hallo.
Ich habe in einem kleinen drei Node PVE Cluster bei dem ich einmal die Replication via ZFS ausprobieren möchte.
Eine Sache ist mir aufgefallen die mir nicht ganz klar ist.
Ich habe eine VM die 2Tb groß ist. Diese möchte ich jetzt von einer Node auf die andere replizieren.
Bevor ich das machen hier die Auslastung von ZFS:
Soweit alles fein.
Die VM 101 braucht aktuell 1,65T und es sind noch 419G reserviert und gesamt mach dsa eine Auslastung von 2,06T.
Wenn der Replication-Job durchgelaufen ist sieht das ganze dann so aus.
Die VM läuft auf node03 und wurde auf node02 repliziert:
Wir sehen die Resevierung ist auf 2,06T rauf gegangen und damit ist mein Pool zu 3,72T ausgelastet.
Warum ist das so? Die Daten wurden ja von node03 auf node02 gespielt und nicht local auch noch replizert?
Weil so wie es aktuell aussieht brauche ich jetzt für eine VM die 2Tb hat gesamt 8Tb an Speicher anstatt von 4Tb (jeweils 2Tb pro Node).
Hat dazu jemand eine Idee?
Danke.
Ich habe in einem kleinen drei Node PVE Cluster bei dem ich einmal die Replication via ZFS ausprobieren möchte.
Eine Sache ist mir aufgefallen die mir nicht ganz klar ist.
Ich habe eine VM die 2Tb groß ist. Diese möchte ich jetzt von einer Node auf die andere replizieren.
Bevor ich das machen hier die Auslastung von ZFS:
Code:
root@node03:~# zfs list -o space -r rpool-sata
NAME AVAIL USED USEDSNAP USEDDS USEDREFRESERV USEDCHILD
rpool-sata 3.21T 2.10T 0B 96K 0B 2.10T
rpool-sata/vm-101-disk-0 3.25T 41.3G 0B 2.01G 39.2G 0B
rpool-sata/vm-101-disk-1 3.62T 2.06T 0B 1.65T 419G 0B
Code:
root@node03:~# zpool list -v
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
rpool 1.73T 2.32G 1.73T - - 0% 0% 1.00x ONLINE -
raidz1-0 1.73T 2.32G 1.73T - - 0% 0.13% - ONLINE
scsi-3600605b00a9f8ff02a34b246ee62dd7e-part3 446G - - - - - - - ONLINE
scsi-3600605b00a9f8ff02a34b250ef03c0f2-part3 446G - - - - - - - ONLINE
scsi-3600605b00a9f8ff02a34b259ef892dbf-part3 446G - - - - - - - ONLINE
scsi-3600605b00a9f8ff02a34b261f005b073-part3 446G - - - - - - - ONLINE
rpool-sata 5.44T 1.66T 3.78T - - 1% 30% 1.00x ONLINE -
mirror-0 2.72T 841G 1.90T - - 1% 30.2% - ONLINE
scsi-3600605b00a9f8ff02a34b269f080dbd9 2.73T - - - - - - - ONLINE
scsi-3600605b00a9f8ff02a34b271f0f6899d 2.73T - - - - - - - ONLINE
mirror-1 2.72T 854G 1.88T - - 1% 30.7% - ONLINE
scsi-3600605b00a9f8ff02a34b27af17de94a 2.73T - - - - - - - ONLINE
scsi-3600605b00a9f8ff02a34b281f1eb8872 2.73T - - - - - - - ONLINE
Soweit alles fein.
Die VM 101 braucht aktuell 1,65T und es sind noch 419G reserviert und gesamt mach dsa eine Auslastung von 2,06T.
Wenn der Replication-Job durchgelaufen ist sieht das ganze dann so aus.
Die VM läuft auf node03 und wurde auf node02 repliziert:
Code:
root@node03~# zfs list -o space -r rpool-sata
NAME AVAIL USED USEDSNAP USEDDS USEDREFRESERV USEDCHILD
rpool-sata 1.55T 3.76T 0B 96K 0B 3.76T
rpool-sata/vm-101-disk-0 1.59T 43.3G 664K 2.01G 41.3G 0B
rpool-sata/vm-101-disk-0@__replicate_101-0_1669288740__ - 664K - - - -
rpool-sata/vm-101-disk-1 3.62T 3.72T 236K 1.65T 2.06T 0B
rpool-sata/vm-101-disk-1@__replicate_101-0_1669288740__ - 236K - - - -
Wir sehen die Resevierung ist auf 2,06T rauf gegangen und damit ist mein Pool zu 3,72T ausgelastet.
Warum ist das so? Die Daten wurden ja von node03 auf node02 gespielt und nicht local auch noch replizert?
Weil so wie es aktuell aussieht brauche ich jetzt für eine VM die 2Tb hat gesamt 8Tb an Speicher anstatt von 4Tb (jeweils 2Tb pro Node).
Hat dazu jemand eine Idee?
Danke.