Migration dauert 24 Std.

achim22

Renowned Member
May 21, 2015
419
5
83
59
Dortmund
Hallo zusammen,
ich baue gerade ein Test Cluster auf, ohne HA und ohne shared Storage.
Vorläufig besteht der Cluster aus zwei Nodes, weil ich mal die Migration ausprobieren wollte.

Die Server sind baugleich, alle Knoten befinden sich im gleichen Netzwerk!

Sicherlich braucht man beim migrieren länger als mit einem shared Storage, aber 24 Std. für insgesamt 900 GB ?
Mache ich da etwas falsch ?

VG

boot: cdn
bootdisk: scsi0
cores: 4
memory: 20000
name: ServerTEST
net0: e1000=BA:4A:FF:BC:71:2A,bridge=vmbr1
net1: e1000=0A:CA:5D:ED:33:BC,bridge=vmbr3,link_down=1
numa: 0
ostype: win10
scsi0: local-zfs:vm-100-disk-0,cache=writeback,size=100G
scsi1: local-zfs:vm-100-disk-1,cache=writeback,size=400G
scsi2: local-zfs:vm-100-disk-2,cache=writeback,size=400G
scsihw: virtio-scsi-pci
smbios1: uuid=0b3f3c25-74be-47b7-826e-574f0b8ea89c
sockets: 1
vmgenid: e2ac1598-836d-4adc-bc2c-f454f8fa233d




cut---

2020-08-31 11:31:15 migration status: completed
drive-scsi1: transferred: 429916094464 bytes remaining: 0 bytes total: 429916094464 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi0: transferred: 129373372416 bytes remaining: 0 bytes total: 129373372416 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi2: transferred: 429498040320 bytes remaining: 0 bytes total: 429498040320 bytes progression: 100.00 % busy: 0 ready: 1
all mirroring jobs are ready
drive-scsi1: Completing block job...
drive-scsi1: Completed successfully.
drive-scsi0: Completing block job...
drive-scsi0: Completed successfully.
drive-scsi2: Completing block job...
drive-scsi2: Completed successfully.
drive-scsi1 : finished
drive-scsi0 : finished
drive-scsi2 : finished
2020-08-31 11:31:16 # /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=pveywei' root@xx.xx.xx.xx pvesr set-state 100 \''{}'\'
2020-08-31 11:31:18 stopping NBD storage migration server on target.
2020-08-31 11:31:30 migration finished successfully (duration 24:10:34)
TASK OK


cut-----

2020-08-30 11:20:56 starting migration of VM 100 to node 'pveywei' (xx.xx.xx.xx)
2020-08-30 11:20:56 found local disk 'local-zfs:vm-100-disk-0' (in current VM config)
2020-08-30 11:20:56 found local disk 'local-zfs:vm-100-disk-1' (in current VM config)
2020-08-30 11:20:56 found local disk 'local-zfs:vm-100-disk-2' (in current VM config)
2020-08-30 11:20:56 copying local disk images
2020-08-30 11:20:56 starting VM 100 on remote node 'pveywei'
2020-08-30 11:21:00 start remote tunnel
2020-08-30 11:21:00 ssh tunnel ver 1
2020-08-30 11:21:00 starting storage migration
2020-08-30 11:21:00 scsi0: start migration to nbd:unix:/run/qemu-server/100_nbd.migrate:exportname=drive-scsi0
drive mirror is starting for drive-scsi0
drive-scsi0: transferred: 0 bytes remaining: 107374182400 bytes total: 107374182400 bytes progression: 0.00 % busy: 1 ready: 0
drive-scsi0: transferred: 0 bytes remaining: 107374182400 bytes total: 107374182400 bytes progression: 0.00 % busy: 1 ready: 0
drive-scsi0: transferred: 14680064 bytes remaining: 107359502336 bytes total: 107374182400 bytes progression: 0.01 % busy: 1 ready: 0
drive-scsi0: transferred: 29360128 bytes remaining: 107344822272 bytes total: 107374182400 bytes progression: 0.03 % busy: 1 ready: 0

cut----

drive-scsi2: transferred: 371958218752 bytes remaining: 57538510848 bytes total: 429496729600 bytes progression: 86.60 % busy: 1 ready: 0
drive-scsi0: transferred: 116829323264 bytes remaining: 0 bytes total: 116829323264 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi2: transferred: 371971850240 bytes remaining: 57524879360 bytes total: 429496729600 bytes progression: 86.61 % busy: 1 ready: 0
drive-scsi0: transferred: 116829323264 bytes remaining: 131072 bytes total: 116829454336 bytes progression: 100.00 % busy: 1 ready: 1
drive-scsi2: transferred: 371985481728 bytes remaining: 57511247872 bytes total: 429496729600 bytes progression: 86.61 % busy: 1 ready: 0
drive-scsi0: transferred: 116829454336 bytes remaining: 0 bytes total: 116829454336 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi2: transferred: 371999113216 bytes remaining: 57497616384 bytes total: 429496729600 bytes progression: 86.61 % busy: 1 ready: 0
drive-scsi0: transferred: 116829585408 bytes remaining: 0 bytes total: 116829585408 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi2: transferred: 371999113216 bytes remaining: 57497616384 bytes total: 429496729600 bytes progression: 86.61 % busy: 1 ready: 0
drive-scsi0: transferred: 116829716480 bytes remaining: 0 bytes total: 116829716480 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi2: transferred: 372012744704 bytes remaining: 57483984896 bytes total: 429496729600 bytes progression: 86.62 % busy: 1 ready: 0
drive-scsi0: transferred: 116829847552 bytes remaining: 131072 bytes total: 116829978624 bytes progression: 100.00 % busy: 1 ready: 1

cut----

drive-scsi0: transferred: 122694795264 bytes remaining: 0 bytes total: 122694795264 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi2: transferred: 429496729600 bytes remaining: 0 bytes total: 429496729600 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi1: transferred: 180224000000 bytes remaining: 249305366528 bytes total: 429529366528 bytes progression: 41.96 % busy: 1 ready: 0
drive-scsi0: transferred: 122694926336 bytes remaining: 0 bytes total: 122694926336 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi2: transferred: 429496729600 bytes remaining: 0 bytes total: 429496729600 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi1: transferred: 180237631488 bytes remaining: 249291735040 bytes total: 429529366528 bytes progression: 41.96 % busy: 1 ready: 0
drive-scsi0: transferred: 122695188480 bytes remaining: 0 bytes total: 122695188480 bytes progression: 100.00 % busy: 0 ready: 1
drive-scsi2: transferred: 429496729600 bytes remaining: 0 bytes total: 429496729600 bytes progression: 100.00 % busy: 0 ready: 1


proxmox-ve: 6.2-1 (running kernel: 5.4.44-2-pve)
pve-manager: 6.2-10 (running version: 6.2-10/a20769ed)
pve-kernel-5.4: 6.2-4
pve-kernel-helper: 6.2-4
pve-kernel-5.4.44-2-pve: 5.4.44-2
pve-kernel-5.4.34-1-pve: 5.4.34-2
ceph-fuse: 12.2.11+dfsg1-2.1+b1
corosync: 3.0.4-pve1
criu: 3.11-3
glusterfs-client: 5.5-3
ifupdown: 0.8.35+pve1
ksm-control-daemon: 1.3-1
libjs-extjs: 6.0.1-10
libknet1: 1.16-pve1
libproxmox-acme-perl: 1.0.4
libpve-access-control: 6.1-2
libpve-apiclient-perl: 3.0-3
libpve-common-perl: 6.1-5
libpve-guest-common-perl: 3.1-2
libpve-http-server-perl: 3.0-6
libpve-storage-perl: 6.2-5
libqb0: 1.0.5-1
libspice-server1: 0.14.2-4~pve6+1
lvm2: 2.03.02-pve4
lxc-pve: 4.0.2-1
lxcfs: 4.0.3-pve3
novnc-pve: 1.1.0-1
proxmox-mini-journalreader: 1.1-1
proxmox-widget-toolkit: 2.2-9
pve-cluster: 6.1-8
pve-container: 3.1-12
pve-docs: 6.2-5
pve-edk2-firmware: 2.20200531-1
pve-firewall: 4.1-2
pve-firmware: 3.1-1
pve-ha-manager: 3.0-9
pve-i18n: 2.1-3
pve-qemu-kvm: 5.0.0-11
pve-xtermjs: 4.3.0-1
pve-zsync: 2.0-3
qemu-server: 6.2-11
smartmontools: 7.1-pve2
spiceterm: 3.1-1
vncterm: 1.6-1
zfsutils-linux: 0.8.4-pve1
 
Ohne weitere Beschreibung des Cluster und dessen Storage lässt sich nicht viel sagen. ~10MB/s für 900 GB in 24h.
 
Ohne weitere Beschreibung des Cluster und dessen Storage lässt sich nicht viel sagen. ~10MB/s für 900 GB in 24h.

Okay, wie schon geschrieben ist das Neuland für mich. Was für Infos brauchst Du genau ?
Ich habe den Cluster einfach nur über die GUI eingerichtet und sonst nichts gemacht.

Heißt das es sei okay ?
~10MB/s für 900 GB in 24h.

Die Infos ?

Es handelt sich hierbei um zwei Server mit CPU: Intel Xeon E3-1270v6, RAM: 64 GB DDR4 ECC, HDD: 4x 2 TB SSD mit ZFS.
Die Server stehen in einem RZ.

Das BackEnd und FrontEnd läuft über einen Interface mit einer 100.0 Mbit/s Anbindung.
 

Attachments

Heißt das es sei okay ?
Das heißt lediglich, um 900 GB über die Dauer von 24h zu transferieren, sind 10 MB/s nötig.

Das BackEnd und FrontEnd läuft über einen Interface mit einer 100.0 Mbit/s Anbindung.
Und hier ist deine Antwort. 10 MB/s (+ Netzwerk) kommen auf 100 Mbit/s.
 
Wenn du eine Replikation einrichtest, dauert eine etwaige Migration auch nicht mehr so lange. Selbst mit einer lahme 100mbit Anbindung.
 
  • Like
Reactions: achim22
Habe mich vertan, ist eine 1000mbit anbindung.
Bist du dir da sicher? Viele Hoster schließen ihre Server mit 1 GbE an, aber das Netzwerk ist auf 100 Mbit gedrosselt. Bei 1 GbE können so ~90 MB/s herausschauen.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!