Moin zusammen,
ich habe mich schon erfolglos durch die vorhandenen Threads gelesen, lösen konnte ich mein Problem aber leider trotzdem nicht, ich hoffe daher auf eure fachkundige Hilfe.
Aufbau:
Alle Replications einmal gelöscht, trotzdem scheitern neu angelegte sofort, auch bei einer komplett neuen VM (ID200).
Anbei ein wenig log output aus dem ich nicht schlau werde:
root@Node01:/var/log# zfs list -t snapshot
NAME USED AVAIL REFER MOUNTPOINT
ssd1/vm-101-disk-1@WinNet 999M - 9,61G -
ssd1/vm-101-disk-1@Updated 1,08G - 17,8G -
ssd1/vm-101-disk-1@AfterTVInstallation 855M - 17,8G -
ssd1/vm-102-disk-1@WinNet 956M - 9,56G -
ssd1/vm-102-disk-1@Updated 2,16G - 17,9G -
ssd1/vm-102-disk-2@WinNet 16K - 16K -
ssd1/vm-102-disk-2@Updated 152K - 92,1M -
root@Node01:/var/log# pvesr status
JobID Enabled Target LastSync NextSync Duration FailCount State
root@Node01:/var/log# pvesr list
JobID Target Schedule Rate Enabled
108-0 local/Node01 */15 - yes
200-0 local/Node01 */15 - yes
root@Node02:/var/log/# zfs list -t snapshot
no datasets available
root@Node02:/var/log/# pvesr status
JobID Enabled Target LastSync NextSync Duration FailCount State
108-0 Yes local/Node01 - 2018-03-27_11:41:01 5.624847 41 command 'set -o pipefail && pvesm export ssd1:vm-108-disk-1 zfs - -with-snapshots 1 -snapshot __replicate_108-0_1522141861__ | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=Node01' root@10.11.12.1 -- pvesm import ssd1:vm-108-disk-1 zfs - -with-snapshots 1' failed: exit code 1
200-0 Yes local/Node01 - 2018-03-27_11:32:01 2.351011 4 command 'set -o pipefail && pvesm export ssd1:vm-200-disk-1 zfs - -with-snapshots 1 -snapshot __replicate_200-0_1522141321__ | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=Node01' root@10.11.12.1 -- pvesm import ssd1:vm-200-disk-1 zfs - -with-snapshots 1' failed: exit code 1
root@Node02:/var/log# pvesr list
JobID Target Schedule Rate Enabled
108-0 local/ProxNode01 */15 - yes
200-0 local/ProxNode01 */15 - yes
ich habe mich schon erfolglos durch die vorhandenen Threads gelesen, lösen konnte ich mein Problem aber leider trotzdem nicht, ich hoffe daher auf eure fachkundige Hilfe.
Aufbau:
- 2 Node Cluster mit 2x1Gbit Bond Direktverbindung auf der vmbr0
- je 1TB SSD mit ZFS
- Replication vom zweiten Node auf dem 2ct und 6VMs laufen alle 15min auf den ersten.
- 3VMs auf dem ersten Node, keine Replication
Alle Replications einmal gelöscht, trotzdem scheitern neu angelegte sofort, auch bei einer komplett neuen VM (ID200).
Anbei ein wenig log output aus dem ich nicht schlau werde:
root@Node01:/var/log# zfs list -t snapshot
NAME USED AVAIL REFER MOUNTPOINT
ssd1/vm-101-disk-1@WinNet 999M - 9,61G -
ssd1/vm-101-disk-1@Updated 1,08G - 17,8G -
ssd1/vm-101-disk-1@AfterTVInstallation 855M - 17,8G -
ssd1/vm-102-disk-1@WinNet 956M - 9,56G -
ssd1/vm-102-disk-1@Updated 2,16G - 17,9G -
ssd1/vm-102-disk-2@WinNet 16K - 16K -
ssd1/vm-102-disk-2@Updated 152K - 92,1M -
root@Node01:/var/log# pvesr status
JobID Enabled Target LastSync NextSync Duration FailCount State
root@Node01:/var/log# pvesr list
JobID Target Schedule Rate Enabled
108-0 local/Node01 */15 - yes
200-0 local/Node01 */15 - yes
root@Node02:/var/log/# zfs list -t snapshot
no datasets available
root@Node02:/var/log/# pvesr status
JobID Enabled Target LastSync NextSync Duration FailCount State
108-0 Yes local/Node01 - 2018-03-27_11:41:01 5.624847 41 command 'set -o pipefail && pvesm export ssd1:vm-108-disk-1 zfs - -with-snapshots 1 -snapshot __replicate_108-0_1522141861__ | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=Node01' root@10.11.12.1 -- pvesm import ssd1:vm-108-disk-1 zfs - -with-snapshots 1' failed: exit code 1
200-0 Yes local/Node01 - 2018-03-27_11:32:01 2.351011 4 command 'set -o pipefail && pvesm export ssd1:vm-200-disk-1 zfs - -with-snapshots 1 -snapshot __replicate_200-0_1522141321__ | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=Node01' root@10.11.12.1 -- pvesm import ssd1:vm-200-disk-1 zfs - -with-snapshots 1' failed: exit code 1
root@Node02:/var/log# pvesr list
JobID Target Schedule Rate Enabled
108-0 local/ProxNode01 */15 - yes
200-0 local/ProxNode01 */15 - yes