Search results

  1. W

    Windows 10 VM only showing 1 Socket and 4 cores.

    silly question, did you use your right mouse button on the graphics and choose "show logical" cpu?
  2. W

    Physical Linux Server to Proxmox VM

    you can install proxmox ve, create a suitable VM. Inside this VM you should be able to use clonezilla to fill your virtual disk.
  3. W

    ZFS/zpool setzt scheinbar zufällig SSDs auf FAULTED

    Schwankungen in der Stromversorgung? Temperatur? Das wäre noch so was, was ich mir ansehen würde.
  4. W

    Datacenter Summary - Storage Usage calculation algorithm

    i found this: (This is why Ceph extrapolates the remaining available space in the cluster not from the average utilization of OSDs but from the most full one instead.) https://ceph.io/community/the-first-telemetry-results-are-in/
  5. W

    CPU load Frage

    s.a.: https://forums.centos.org/viewtopic.php?t=35744
  6. W

    CPU load Frage

    Es gab früher noch eine HZ Einstellung des Kernels. Da gab´s IIRC so Empfehlungen wie 100 für Server, 1000 für Desktop. Meines Wissens aber wurde der Kernel entsprechend kompiliert, was u.U. in diesem Fall keine Option ist. Damit könnte man vermutlich die CPU-Last in der VM weiter verringern.
  7. W

    CPU load Frage

    Hey, ich würde nochmal alternativ testen, wie die VM bei nur 2 cores performt. Vielleicht hat der alte Kernel hier seine Probleme.
  8. W

    CPU load Frage

    Hey, ich würde versuchen, laufende Dienste auf der Centos 4 VM soweit möglich zu stoppen. Also nur das laufen lassen, was Du wirklich brauchst. Desweiteren kann man häufig in der my.cnf der MySQL Instanz einzelne Dinge optimieren, die zu weniger Last führen.
  9. W

    ceph - quota setzen?

    aus http://lists.ceph.com/pipermail/ceph-users-ceph.com/2017-November/022117.html .... $ ceph osd crush set-device-class myclass 0 1 $ ceph osd crush class ls [ "ssd", "myclass" ] .... es sollte möglich sein.
  10. W

    ceph - quota setzen?

    Hallo grefabu, von der groben Draufsicht entspricht das RAID1 auf drei Knoten. Ceph spiegelt aber nicht 1:1 sondern speichert in Objekten und verteilt diese in Placement Groups. Diese Placement Groups suchen sich osd. Aber die 1/3 Betrachtung an sich ist korrekt, wobei man bei Ceph default ab...
  11. W

    Datacenter Summary - Storage Usage calculation algorithm

    Hey, i don´t think it´s somewhere "documented". It´s more in the nature ceph allocates space in objects in placement groups. You can have a full cluster with lot of osds only at 80% and only one or a few osd at 95% or so. Then your cluster is observed as "full". Free = 0. And if you rebalance...
  12. W

    Datacenter Summary - Storage Usage calculation algorithm

    I think the "total space" is a sum up from ceph available space. That is - as i understand - not totally fixed, because of the fill-grade of each single osd and the possibility to place new data regarding the crush algo.
  13. W

    houw to add a new disk to create OSD on CEPH?

    Hey, maybe you missed the "wiping your disk" part from Dominics answer. I never had problems with seeing disks. Wiping the disk (search for zap) depends on your actual versions, if you already use ceph-volume or the "old" ceph disk tools. Be careful not to use wrong device strings.
  14. W

    [SOLVED] Server abgestürtzt?

    Hey, hatte das schon mal in Verbindung mit ZFS und swap. Ursache für hängendes df -h / qm list etc. ist bei uns immer ein Process im D state gewesen. Manchmal hilft da ein einfaches "systemctl restart pve-cluster". Ob das in diesem Fall a) gefahrlos möglich ist und b) auch hilft, kann ich...