Hohe CPU Auslastung

thebermud

Member
Mar 9, 2020
4
0
21
40
Hallo zusammen,

ich habe vor ein paar Tagen Proxmox installiert und bin fleißig am bastel. Ich habe nun 2 VM's (iobroker und OpenMediaVault) und 2 Container (Grafana und InfluxDB) erstellt und mir fällt auf, dass die CPU Auslastung sehr hoch zu sein scheint. Die einzelnen Container / VM's haben eine Auslastung von unter 10%, die Auslastung des Knotens liegt bei ca 50, was mit extrem viel erscheint.
Ich nutze folgende Hardware:
CPU(s)
4 x Intel(R) Core(TM) i5-7400T CPU @ 2.40GHz (1 Socket)
8GB Ram
256 GB SSD

Da ich noch frisch dabei bin die Frage, ist das normal?
Danke euch für die Hilfe
 
Da ich noch frisch dabei bin die Frage, ist das normal?

Kann ganz gut InfluxDB/Grafana sein, ich merk dass bei mir auch - steigender RAM verbrauch (erst nach Wochen bemerkbar, aber trotzdem) und dann oft sehr hohe Auslastung obwohl ich nur spärlich in influxdb reinschreib. Ein kürliches Update hat etwas Linderung gebracht).

Welche Distro mit welchen InfluxDB/Grafana Versionen läuft in den CT?


Zur CT / Knoten Auslastung Vergleich: mal mit top (oder htop installieren) am Host schauen welche Prozesse viel verbrauchte "CPU Time" angesammelt haben: top -b -E m -o +TIME | head -15
 
Ich nutze bisher ausschließlich Debian.
Die Auslastung von Grafana(Version 6.6.2) und InfluxDB(Version 1.7.10) liegen bei unter 1% in der Übersicht vom Container.

das kommt bei der Ausgabe herraus :
Code:
top - 10:07:26 up 12:10,  1 user,  load average: 2.70, 2.23, 2.07
Tasks: 345 total,   4 running, 340 sleeping,   0 stopped,   1 zombie
%Cpu(s): 10.6 us, 34.8 sy,  0.0 ni, 48.5 id,  4.5 wa,  0.0 hi,  1.5 si,  0.0 st
MiB Mem :   7918.4 total,    824.0 free,   6610.6 used,    483.7 buff/cache
MiB Swap:   7168.0 total,   7083.7 free,     84.2 used.   1085.2 avail Mem

  PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND
  713 root      20   0 2770724   2.2g   8892 R  43.8  28.9 260:09.48 udisksd
4433 root      20   0 4833716   2.4g   6348 S   6.2  31.4 111:27.51 kvm
  521 root      20   0   23888   5376   3168 S   6.2   0.1  40:13.76 systemd-udevd
  978 root      20   0    7252   3620   2908 R   0.0   0.0  29:00.03 devmon
2848 root      20   0 2681552 924752   7888 S   0.0  11.4  21:23.14 kvm
  719 message+  20   0    9488   4392   3480 S   0.0   0.1  20:34.15 dbus-daemon
    1 root      20   0  104488   8704   5872 S   0.0   0.1  13:12.64 systemd
  724 root      20   0   19584   5456   4412 S   0.0   0.1   9:12.07 systemd-logind

Ich hatte bis gestern eine Auslastung von ca 5% und dann stieg es Sprunghaft an nachdem ich eine externe Festplatte eingebunden habe und die VM mit openmediavault erstellt und eingerichtet habe. Da müsste irgendwo das Problem liegen,
 
Last edited:
Ah, udisk2, dass ist das Problem. Unter Buster hat der Daemon welcher oft für automounts von USB Sticks o.ä. zuständig ist ab und zu ein Problem und hängt sich voll weg, kann durchaus mit einstecken eines Mediums passieren.

Als Zwischenlösung mal:
systemctl stop udisks2.service

dann wird die Last runter gehen. Wenn du den service nicht wirklich benötigst würde ich ihn Maskieren.
 
Genau das wars....die CPU Auslastung ging sofort runter auf ca 5%.
Was ist das denn für ein Service bzw wofür braucht man den?
Wie maskiere ich diesen?
 
Danke für deine Hilfe und Info.
Nachdem ich den Service erst mal gestoppt habe konnte ich meine USB Festplatte nicht mehr über dlna erreichen und habe die VM von Openmediavault gestoppt. Nun kann ich sie nicht mehr starten mit dem Hinweis:
Code:
timeout waiting on systemd
failed to run vncproxy

habe jetzt komplett neu gestartet und nun funktioniert omv nicht mehr, auf der Benutzeroberfläche bekomme ich immer folgenden Fehler:
Fatal error 4: Document is empty (line=1, column=1)

auf details geklickt kommt folgendes:
Fehler #0: OMV\Config\DatabaseException: Fatal error 4: Document is empty (line=1, column=1) in /usr/share/php/openmediavault/config/databasebackend.inc:113 Stack trace: #0 /usr/share/php/openmediavault/config/database.inc(34): OMV\Config\DatabaseBackend->load() #1 /usr/share/php/openmediavault/config/database.inc(44): OMV\Config\Database->__construct() #2 /usr/share/openmediavault/engined/rpc/filesystemmgmt.inc(139): OMV\Config\Database::getInstance() #3 /usr/share/php/openmediavault/rpc/serviceabstract.inc(635): Engined\Rpc\OMVRpcServiceFileSystemMgmt->Engined\Rpc\{closure}() #4 /usr/share/openmediavault/engined/rpc/filesystemmgmt.inc(174): OMV\Rpc\ServiceAbstract->asyncProc(Object(Closure)) #5 [internal function]: Engined\Rpc\OMVRpcServiceFileSystemMgmt->enumerateFilesystems(NULL, Array) #6 /usr/share/php/openmediavault/rpc/serviceabstract.inc(123): call_user_func_array(Array, Array) #7 /usr/share/openmediavault/engined/rpc/filesystemmgmt.inc(322): OMV\Rpc\ServiceAbstract->callMethod('enumerateFilesy...', NULL, Array) #8 [internal function]: Engined\Rpc\OMVRpcServiceFileSystemMgmt->getList(Array, Array) #9 /usr/share/php/openmediavault/rpc/serviceabstract.inc(123): call_user_func_array(Array, Array) #10 /usr/share/php/openmediavault/rpc/serviceabstract.inc(149): OMV\Rpc\ServiceAbstract->callMethod('getList', Array, Array) #11 /usr/share/php/openmediavault/rpc/serviceabstract.inc(588): OMV\Rpc\ServiceAbstract->OMV\Rpc\{closure}('/tmp/bgstatusUz...', '/tmp/bgoutputmN...') #12 /usr/share/php/openmediavault/rpc/serviceabstract.inc(159): OMV\Rpc\ServiceAbstract->execBgProc(Object(Closure)) #13 /usr/share/openmediavault/engined/rpc/filesystemmgmt.inc(471): OMV\Rpc\ServiceAbstract->callMethodBg('getList', Array, Array) #14 [internal function]: Engined\Rpc\OMVRpcServiceFileSystemMgmt->getListBg(Array, Array) #15 /usr/share/php/openmediavault/rpc/serviceabstract.inc(123): call_user_func_array(Array, Array) #16 /usr/share/php/openmediavault/rpc/rpc.inc(86): OMV\Rpc\ServiceAbstract->callMethod('getListBg', Array, Array) #17 /usr/sbin/omv-engined(537): OMV\Rpc\Rpc::call('FileSystemMgmt', 'getListBg', Array, Array, 1) #18 {main}
 
Last edited:
Bei mir ist es Node Red der die Last verursacht. Geht soweit das man nicht mehr drauf machen kann. Habe die CPU Limit auf 64 gestellt seit dem habe ich es nicht mehr gehabt. Mal sehen ob es auch über längere Zeit auch so bleibt.
 
Habe gerade wieder das Problem mit der hohen Auslastung von Node Red. So das ich nicht mehr auf das WebIf von Proxmox zugreifen kann. Bei htop gibt er mir Node Red als Verursacher aus.
Auch der Befehl brachte keine besserung
Code:
 systemctl stop udisks2.service

Bildschirmfoto vom 2020-03-11 21-56-35.png
 
@mafe68 Gibt es dein Problem noch? Falls ja, mach bitte einen neuen Thread auf. Weder node red noch pmxcfs (das bei dir eine so hohe Auslastung hat) sollten viel mit udisks2 zu tun haben.
 
@Domonic

Seit ein paar Tagen läuft jetzt meine System durch ohne das ich einen Ausfall oder das es hängen geblieben ist. Habe aber im Grunde nichts daran geändert, ausser das ich einzelne Container gestopt habe und ohne die das System weiter laufen lies um zu sehen welcher die Last vielleicht auslöst. Auch die update wenn welche zur Verfügung standen habe ich gemacht.

Udisks2 Ist doch zum ein und aushängen von Datenträger, im Grunde werden keine zusätzlichen Geräte gemountet oder umount da sie ständig im System laufen. In welcher Zusammenhang könnte das dann mit udisks2 zusammenhängen?
 
Seit ein paar Tagen läuft jetzt meine System durch ohne das ich einen Ausfall oder das es hängen geblieben ist.
Sehr gut.

In welcher Zusammenhang könnte das dann mit udisks2 zusammenhängen?
das = die CPU-Auslastung? Genau das scheint noch ungeklärt.
 
Hallo
Ist das Problem gelöst ? Ich hatte den Befehl systemctl mask udisks2.service eingegeben und die Last ist sofort runtergegangen. Bleibt der Effekt nach dem Neustart ?
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!