Search results

  1. D

    Extrem LANGSAMER Ceph Storage ab über 60% Auslastung ???

    Und wieder ist der RAM bist zum Swapping vollgelaufen root@ceph1-minirack:~# cat /proc/meminfo MemTotal: 24656724 kB MemFree: 208708 kB MemAvailable: 14458664 kB Buffers: 14197188 kB Cached: 229064 kB SwapCached: 4968 kB Active: 4332072 kB...
  2. D

    Extrem LANGSAMER Ceph Storage ab über 60% Auslastung ???

    Wir haben einen "Labor" Ceph Object Storage, welcher aus einem 4x-Multinode-Server und den folgenden Node-Komponenten besteht: Pro Node: PVE Manager Version pve-manager/7.1-7/df5740ad Kernel Version Linux 5.13.19-2-pve #1 SMP PVE 5.13.19-4 (Mon, 29 Nov 2021 12:10:09 +0100) 24 x Intel(R)...
  3. D

    Extremely SLOW Ceph Storage from over 60% usage ???

    We have a "Lab" Ceph Object Storage consisting of a 4x Multinode Server and the following Node components: Per Node: PVE Manager Version pve-manager/7.1-7/df5740ad Kernel Version Linux 5.13.19-2-pve #1 SMP PVE 5.13.19-4 (Mon, 29 Nov 2021 12:10:09 +0100) 24 x Intel(R) Xeon(R) CPU X5675 @...
  4. D

    Proxmox: mehrfach redundante (boot) EFI Partitionen

    Hallo Stoiko, klingt super. Anmerkungen: - Unsere ersten Nodes wurden mit 6.3 aufgesetzt - Die Installation gestern auf dem Node mit 6.4 war nur ein RAID 1 System mit nachträglich hinzugefügtem Spare (administrative Nacharbeiten sind in diesem Fall OK) - Die bevorstehenden Installationen der...
  5. D

    Proxmox: mehrfach redundante (boot) EFI Partitionen

    Hallo Community, wir hatten die letzten 5 Jahre unsere produktive Infrastruktur mit SmartOS (einem Illumos Kernel basierten Hypervisor) https://www.smartos.org/ betrieben und sind jetzt zu Proxmox gewechselt. Proxmox begeistert uns. Jedoch ist uns ein suboptimales Partitionierungsschema des...