Guten Morgen Zusammen,
nach mehreren Wochen Recherche habe ich mich nun dazu entschlossen mein HomeLab (3x Intel NUC10i7, 64GB RAM, 1x 500GB M.2 NVME, 1x 2TB SSD, 10GBE-TB Adapter) von einer VMware vSphere 7 Installation (mit vSAN) auf eine Proxmox-Umgebung mit CEPH umzustellen.
Im Vorfeld habe ich diverse Tests durchgeführt, z.B. Proxmox nested auf vSphere sowie auf KVM. Alles soweit zufriedenstellend.
Nun habe ich gestern die vSphere-Umgebung gelöscht und Proxmox VE 7.1 aufgesetzt, Community-Subscriptions gekauft, Cluster erstellt, Ceph installiert und... bin enttäuscht, VMs laufen sowas von langsam!
Jetzt ist Problemsuche angesagt... Über Eure Hilfe würde ich mich sehr freuen!
So schaut meine Umgebung aus:
Die drei NUCs haben jeweils eine verbaute 1Gbe-NIC als auch je einen 10Gbe-Thunderbolt-Adapter von QNAP (Aqc107 Treiber).
An den 1Gbe NICs liegen zwei VLANs an, ein VMNetz und ein Management-Netz für die Hosts.
An den 10Gbe-NICs kommen insgesamt 4 VLANs an, Cluster-Backend, Ceph Public, Ceph-Backend und Backup-Netz für den Backup-Server (noch nicht aufgebaut)
Zum Setup:
Leider läuft Proxmox nicht vom USB-Stick, wie ESX, sonst hätte ich die 500GB M.2 als Cache definiert, daher habe ich Proxmox VE auf die 500GB M.2 NVME Disk installiert. (Samsung EVO 970 Plus)
Die 2TB SSD (Crucial MX500) wird ausschliesslich für Ceph verwendet.
Ich habe bereits einige VMs auf die neue Umgebung migriert, aber die Gastsystem laufen sowas von langsam, da benötige ich jetzt bitte Beistand.
Hier einige Tests:
root@pve10:~# pveperf
CPU BOGOMIPS: 38399.04
REGEX/SECOND: 4894859
HD SIZE: 95.95 GB (/dev/mapper/pve-root)
BUFFERED READS: 2831.62 MB/sec
AVERAGE SEEK TIME: 0.03 ms
FSYNCS/SECOND: 363.54
DNS EXT: 23.53 ms
DNS INT: 49.41 ms
Ceph Pool Benchmark:
root@pve10:~# rados -p VM-Pool bench 10 write --no-cleanup
hints = 1
Maintaining 16 concurrent writes of 4194304 bytes to objects of size 4194304 for up to 10 seconds or 0 objects
Object prefix: benchmark_data_pve10_600885
sec Cur ops started finished avg MB/s cur MB/s last lat(s) avg lat(s)
0 0 0 0 0 0 - 0
1 16 16 0 0 0 - 0
2 16 16 0 0 0 - 0
3 16 16 0 0 0 - 0
4 16 32 16 15.9949 16 3.1603 3.1601
5 16 32 16 12.7955 0 - 3.1601
6 16 32 16 10.6628 0 - 3.1601
7 16 48 32 18.2795 21.3333 3.2443 3.19978
8 16 48 32 15.9944 0 - 3.19978
9 16 48 32 14.2172 0 - 3.19978
10 16 64 48 19.193 21.3333 3.12835 3.17496
11 16 64 48 17.4485 0 - 3.17496
12 16 64 48 15.9947 0 - 3.17496
Total time run: 12.7556
Total writes made: 64
Write size: 4194304
Object size: 4194304
Bandwidth (MB/sec): 20.0695
Stddev Bandwidth: 8.94126
Max bandwidth (MB/sec): 21.3333
Min bandwidth (MB/sec): 0
Average IOPS: 5
Stddev IOPS: 2.12489
Max IOPS: 5
Min IOPS: 0
Average Latency(s): 3.1871
Stddev Latency(s): 0.0468339
Max latency(s): 3.2443
Min latency(s): 3.12116
Gast-VM:
root@pve12:~# qm config 100
agent: 1,fstrim_cloned_disks=1
boot: order=sata0;ide2
cores: 4
ide2: none,media=cdrom
memory: 8192
meta: creation-qemu=6.1.1,ctime=1647365134
name: ipa.peerone.tech
net0: virtio=12:8C:22:10:1E:70,bridge=vmbr1,firewall=1
numa: 0
ostype: l26
sata0: VM-Pool:vm-100-disk-1,size=50G
scsihw: virtio-scsi-pci
smbios1: uuid=69f2ffd4-972f-4f2b-a87a-a63a21b06e2e
sockets: 2
vmgenid: 34279125-f009-4809-afc0-2fdfc2421456
Herzlichen Dank für Eure Unterstützung
Thorsten
nach mehreren Wochen Recherche habe ich mich nun dazu entschlossen mein HomeLab (3x Intel NUC10i7, 64GB RAM, 1x 500GB M.2 NVME, 1x 2TB SSD, 10GBE-TB Adapter) von einer VMware vSphere 7 Installation (mit vSAN) auf eine Proxmox-Umgebung mit CEPH umzustellen.
Im Vorfeld habe ich diverse Tests durchgeführt, z.B. Proxmox nested auf vSphere sowie auf KVM. Alles soweit zufriedenstellend.
Nun habe ich gestern die vSphere-Umgebung gelöscht und Proxmox VE 7.1 aufgesetzt, Community-Subscriptions gekauft, Cluster erstellt, Ceph installiert und... bin enttäuscht, VMs laufen sowas von langsam!
Jetzt ist Problemsuche angesagt... Über Eure Hilfe würde ich mich sehr freuen!
So schaut meine Umgebung aus:
Die drei NUCs haben jeweils eine verbaute 1Gbe-NIC als auch je einen 10Gbe-Thunderbolt-Adapter von QNAP (Aqc107 Treiber).
An den 1Gbe NICs liegen zwei VLANs an, ein VMNetz und ein Management-Netz für die Hosts.
An den 10Gbe-NICs kommen insgesamt 4 VLANs an, Cluster-Backend, Ceph Public, Ceph-Backend und Backup-Netz für den Backup-Server (noch nicht aufgebaut)
Zum Setup:
Leider läuft Proxmox nicht vom USB-Stick, wie ESX, sonst hätte ich die 500GB M.2 als Cache definiert, daher habe ich Proxmox VE auf die 500GB M.2 NVME Disk installiert. (Samsung EVO 970 Plus)
Die 2TB SSD (Crucial MX500) wird ausschliesslich für Ceph verwendet.
Ich habe bereits einige VMs auf die neue Umgebung migriert, aber die Gastsystem laufen sowas von langsam, da benötige ich jetzt bitte Beistand.
Hier einige Tests:
root@pve10:~# pveperf
CPU BOGOMIPS: 38399.04
REGEX/SECOND: 4894859
HD SIZE: 95.95 GB (/dev/mapper/pve-root)
BUFFERED READS: 2831.62 MB/sec
AVERAGE SEEK TIME: 0.03 ms
FSYNCS/SECOND: 363.54
DNS EXT: 23.53 ms
DNS INT: 49.41 ms
Ceph Pool Benchmark:
root@pve10:~# rados -p VM-Pool bench 10 write --no-cleanup
hints = 1
Maintaining 16 concurrent writes of 4194304 bytes to objects of size 4194304 for up to 10 seconds or 0 objects
Object prefix: benchmark_data_pve10_600885
sec Cur ops started finished avg MB/s cur MB/s last lat(s) avg lat(s)
0 0 0 0 0 0 - 0
1 16 16 0 0 0 - 0
2 16 16 0 0 0 - 0
3 16 16 0 0 0 - 0
4 16 32 16 15.9949 16 3.1603 3.1601
5 16 32 16 12.7955 0 - 3.1601
6 16 32 16 10.6628 0 - 3.1601
7 16 48 32 18.2795 21.3333 3.2443 3.19978
8 16 48 32 15.9944 0 - 3.19978
9 16 48 32 14.2172 0 - 3.19978
10 16 64 48 19.193 21.3333 3.12835 3.17496
11 16 64 48 17.4485 0 - 3.17496
12 16 64 48 15.9947 0 - 3.17496
Total time run: 12.7556
Total writes made: 64
Write size: 4194304
Object size: 4194304
Bandwidth (MB/sec): 20.0695
Stddev Bandwidth: 8.94126
Max bandwidth (MB/sec): 21.3333
Min bandwidth (MB/sec): 0
Average IOPS: 5
Stddev IOPS: 2.12489
Max IOPS: 5
Min IOPS: 0
Average Latency(s): 3.1871
Stddev Latency(s): 0.0468339
Max latency(s): 3.2443
Min latency(s): 3.12116
Gast-VM:
root@pve12:~# qm config 100
agent: 1,fstrim_cloned_disks=1
boot: order=sata0;ide2
cores: 4
ide2: none,media=cdrom
memory: 8192
meta: creation-qemu=6.1.1,ctime=1647365134
name: ipa.peerone.tech
net0: virtio=12:8C:22:10:1E:70,bridge=vmbr1,firewall=1
numa: 0
ostype: l26
sata0: VM-Pool:vm-100-disk-1,size=50G
scsihw: virtio-scsi-pci
smbios1: uuid=69f2ffd4-972f-4f2b-a87a-a63a21b06e2e
sockets: 2
vmgenid: 34279125-f009-4809-afc0-2fdfc2421456
Herzlichen Dank für Eure Unterstützung
Thorsten