Proxmox mit LXC Containern - Grundfragen

janosch1337

Member
May 28, 2018
27
0
21
36
Hallo,

ich nutze proxmox 5.x und würde jetzt gerne mal anstatt vms LXC container nutzen. Funktioniert im Endeffekt auch prima nur was mir auffällt, ist das die Load vom host extremst hoch geht wenn ich was im lxc mache.

Mache ich zb nur ein apt install htop oder apt upgrade -y im LXC dann geht die Load vom host direkt auf 4-6. und das find ich schon echt komisch. Liegt das an meinen Settings oder was genau ist da los bei mir. IO geht auch auf 20-30%
 
Hi,

Ich würde sagen das deine Disken langsam sind und es daran liegt aber dazu musste man mehr Informationen haben um genaueres zu sagen.

Was hast du für Festplatten und was für ein Filesystem verwendest du?
 
hey danke für deine antwort.

also hdparm -tT --direct /dev/md2

bringt mir 270mb/s lesen

dann hab ich mit "dd if=/dev/zero of=/root/testfile bs=1G count=1 oflag=direct" ne 1GB datei mal geschrieben...

auf dem host: 170mb/s .. aber auf dem lxc container nur 50mb/s

Linux 4.10.17-3-pve #1 SMP PVE 4.10.17-23 (Tue, 19 Sep 2017 09:43:50 +0200)

server ist ein 8 x Intel(R) Xeon(R) CPU E3-1270 v6 @ 3.80GHz (1 Socket) mit 3x 4TB in raid 5

lg
 
Du verwendest Raid 5 was nicht empfohlen ist da die schreib Performance nicht gut ist.
Die Performance Tests die du verwendest sagen leider nichts aus.
Wenn du richtig messen willst verwende fio und Pattern die echt vorkommen.
1GB block_size schreiben die wenigsten Applikationen, auch nicht LXC.

Außerdem solltest du deinen PVE mal updaten.
 
hab mal ein read write test durchlaufen lassen auf dem lxc container. den kernel werde ich mal auf den neuesten stand bringen..


sudo fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=random_read_write.fio --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75
test: (g=0): rw=randrw, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=64
fio-2.2.10
Starting 1 process
test: Laying out IO file(s) (1 file(s) / 4096MB)
Jobs: 1 (f=1)
test: (groupid=0, jobs=1): err= 0: pid=27636: Thu May 31 08:53:47 2018
read : io=3071.7MB, bw=1508.7MB/s, iops=386221, runt= 2036msec
write: io=1024.4MB, bw=515185KB/s, iops=128796, runt= 2036msec
cpu : usr=15.14%, sys=84.72%, ctx=9, majf=0, minf=10
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0%
issued : total=r=786347/w=262229/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=64

Run status group 0 (all jobs):
READ: io=3071.7MB, aggrb=1508.7MB/s, minb=1508.7MB/s, maxb=1508.7MB/s, mint=2036msec, maxt=2036msec
WRITE: io=1024.4MB, aggrb=515184KB/s, minb=515184KB/s, maxb=515184KB/s, mint=2036msec, maxt=2036msec

Disk stats (read/write):
loop0: ios=728746/242945, merge=0/0, ticks=1892/820, in_queue=2692, util=90.96%
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!