Recent content by dpl

  1. Extremely SLOW Ceph Storage from over 60% usage ???

    It is probably due to the activated SWAP root@ceph1-minirack:~# for file in /proc/*/status ; do awk '/VmSwap|Name/{printf $2 " " $3}END{ print ""}' $file; done | grep kB | egrep -v "0 kB" pvedaemon worke8536 kB pmxcfs 1192 kB ceph-osd 3188 kB ceph-osd 3184 kB pve-firewall 5544 kB pvestatd...
  2. Extrem LANGSAMER Ceph Storage ab über 60% Auslastung ???

    Es liegt wohl am aktivierten SWAP root@ceph1-minirack:~# for file in /proc/*/status ; do awk '/VmSwap|Name/{printf $2 " " $3}END{ print ""}' $file; done | grep kB | egrep -v "0 kB" pvedaemon worke8536 kB pmxcfs 1192 kB ceph-osd 3188 kB ceph-osd 3184 kB pve-firewall 5544 kB pvestatd 796 kB...
  3. Extremely SLOW Ceph Storage from over 60% usage ???

    And again the RAM is full to swapping root@ceph1-minirack:~# cat /proc/meminfo MemTotal: 24656724 kB MemFree: 208708 kB MemAvailable: 14458664 kB Buffers: 14197188 kB Cached: 229064 kB SwapCached: 4968 kB Active: 4332072 kB Inactive...
  4. Extrem LANGSAMER Ceph Storage ab über 60% Auslastung ???

    Und wieder ist der RAM bist zum Swapping vollgelaufen root@ceph1-minirack:~# cat /proc/meminfo MemTotal: 24656724 kB MemFree: 208708 kB MemAvailable: 14458664 kB Buffers: 14197188 kB Cached: 229064 kB SwapCached: 4968 kB Active: 4332072 kB...
  5. Extrem LANGSAMER Ceph Storage ab über 60% Auslastung ???

    Wir haben einen "Labor" Ceph Object Storage, welcher aus einem 4x-Multinode-Server und den folgenden Node-Komponenten besteht: Pro Node: PVE Manager Version pve-manager/7.1-7/df5740ad Kernel Version Linux 5.13.19-2-pve #1 SMP PVE 5.13.19-4 (Mon, 29 Nov 2021 12:10:09 +0100) 24 x Intel(R)...
  6. Extremely SLOW Ceph Storage from over 60% usage ???

    We have a "Lab" Ceph Object Storage consisting of a 4x Multinode Server and the following Node components: Per Node: PVE Manager Version pve-manager/7.1-7/df5740ad Kernel Version Linux 5.13.19-2-pve #1 SMP PVE 5.13.19-4 (Mon, 29 Nov 2021 12:10:09 +0100) 24 x Intel(R) Xeon(R) CPU X5675 @...
  7. Proxmox: mehrfach redundante (boot) EFI Partitionen

    Hallo Stoiko, klingt super. Anmerkungen: - Unsere ersten Nodes wurden mit 6.3 aufgesetzt - Die Installation gestern auf dem Node mit 6.4 war nur ein RAID 1 System mit nachträglich hinzugefügtem Spare (administrative Nacharbeiten sind in diesem Fall OK) - Die bevorstehenden Installationen der...
  8. Proxmox: mehrfach redundante (boot) EFI Partitionen

    Hallo Community, wir hatten die letzten 5 Jahre unsere produktive Infrastruktur mit SmartOS (einem Illumos Kernel basierten Hypervisor) https://www.smartos.org/ betrieben und sind jetzt zu Proxmox gewechselt. Proxmox begeistert uns. Jedoch ist uns ein suboptimales Partitionierungsschema des...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!