Recent content by Ingo S

  1. Ingo S

    Planung Proxmox Cluster + Storage

    Bei uns ist es eine Kombination aus beidem. Unser Ceph Main Storage besteht aus HDDs. Da kommen wir mit 32 parallelen 4k small reads auf ca 1500-1800iops bei 30 Platten. Das kommt hin mit dem was ich erwarten würde. Beim SSD Pool hab ich noch nie mehr als 6000iops gesehen. Aber unser ganzer...
  2. Ingo S

    Planung Proxmox Cluster + Storage

    Haha ja, IT ist voll mit Rabbitholes. Darum mag ich den Job so gern. Ich habe gerade nen ganz netten Guide gefunden, wie das mit ZFS over iSCSI und Proxmox funktioniert: https://blog.haschek.at/2023/zfs-over-iscsi-in-proxmox.html Also LIO it is... Die 3.2TB SSDs habe ich jetzt durch 7.68TB...
  3. Ingo S

    Planung Proxmox Cluster + Storage

    Dann würde ich wohl tatsächlich NVME bevorzugen, sofern uns das gegenüber SAS dann nicht ein Vermögen extra kostet. Das muss sich dann bei der Marktanalyse zeigen. ocfs Rabbithole? Ich falle immer in solche Rabbitholes... Oh weia :eek: Aber ich hab gerade gesehen, das ist Oracle. Nope...
  4. Ingo S

    Planung Proxmox Cluster + Storage

    Ja, wir werden dafür einen 2x oder 4x redundanten 25Gbit Uplink zum NAS nutzen. Der Storage wird auf jeden Fall mit SSDs gebaut. Es ist noch nicht ganz raus, ob NVME oder SAS. Ich hatte auch kurz dran gedacht, ob NVMEoF nicht auch was wäre. Ich finde aber nicht raus, ob das dann ebenfalls wie...
  5. Ingo S

    How do I hide the fact to Windows that it runs in a VM?

    I'm not saying you are cheating, but, thats exactly what anti-cheat software is looking for. This will always be a cat and mouse game and you will never get support neither from EAC nor the game devs. Unfortunately, though pretty cool, to game with mutliple people on one rig, this will never be...
  6. Ingo S

    Planung Proxmox Cluster + Storage

    Danke erstmal für euren Input. @FrankList80 Interessantes Konzept. Allerdings ist das bei uns so nicht umsetzbar. Wir haben ein paar dicke Brummer von VMs, die sich im TB Bereich bewegen. Da wäre die Recovery Zeit einfach zu lang. Letztlich hängt sowas natürlich immer an den Anforderungen des...
  7. Ingo S

    Planung Proxmox Cluster + Storage

    Moin zusammen Ich plane zur Zeit einen neuen Proxmox Cluster. Dieser wird wahrscheinlich aus 4 Hosts bestehen. Mich treibt die Frage um, wie ich den Storage am besten designen könnte. Zur Zeit nutzen wir Ceph. Obwohl ich Ceph wirklich super finde, was die Sicherheit und "ease of use" angeht...
  8. Ingo S

    [SOLVED] Welche OSD nutzt welche SSD WAL/DB Partition

    So, endlich Zeit gefunden. Tatsächlich war der "Trick" der mir nicht mehr einfiel folgender: Mit ceph-volume lvm list <OSD device> bekommt man alle Details über das Device Und da steht unter [db] ganz klar, welche Partition verwendet wurde. Das habe ich in dem IBM Artikel wiedergefunden...
  9. Ingo S

    [SOLVED] Welche OSD nutzt welche SSD WAL/DB Partition

    Danke, das kannte ich noch nicht. Das werde ich mir mal durchlesen. Beim ersten Überfliegen ist glaube ich genau das drin, was ich gesucht habe.
  10. Ingo S

    [SOLVED] Welche OSD nutzt welche SSD WAL/DB Partition

    Hey, hat vielleicht jemand noch eine Idee?
  11. Ingo S

    [SOLVED] Welche OSD nutzt welche SSD WAL/DB Partition

    Nein, leider nicht. Bei jeder OSD die eine separate DB Partition nutzt, bekomme ich diese Fehlermeldung. Ist es möglich, dass die Partitionen nicht via LVM genutzt werden?
  12. Ingo S

    [SOLVED] Welche OSD nutzt welche SSD WAL/DB Partition

    Danke erstmal. Leider hilft mir das nicht so richtig weiter. Wie oben zu sehen ist, ist zwar in der Liste oben block und db aufgeführt, aber da steht nur das Device und nicht die Partition, denn wir haben in jedem Server eine SSD, die über je eine Partition pro HDD OSD verfügt. Wenn ich db...
  13. Ingo S

    [SOLVED] Welche OSD nutzt welche SSD WAL/DB Partition

    Moin zusammen Nachdem eine HDD OSD bei uns ausgefallen ist und es ewig her ist, das ich da mal was tauschen musste, finde ich es leider nicht mehr raus: Die HDD OSD nutzt eine Partition auf einer SSD als WAL/DB Device. Ich finde aber nicht mehr heraus, welche der Partitionen auf dem Host...
  14. Ingo S

    Ceph PG repair failed

    SMART sagt, alles ist fein. Aaaaaber in den letzten Tagen sind noch mehr scrub Error aufgetreten und in ALLEN war OSD 14 beteiligt. Ein blick ins Kernel LOG zeigte folgendes: critical medium error, dev sdd, sector 49197368 op 0x0:(READ) flags 0x0 phys_seg 64 prio class 0 [905890.435728] sd...
  15. Ingo S

    Ceph PG repair failed

    So, ich war die ganze Zeit über krank. Jetzt muss ich das nochmal von vorn aufrollen. Ich brauche da mal einen kleinen Schubser: Wie zur Hölle bin ich an den o.a. Log Eintrag gekommen? Ich finde den nicht wieder :oops: Zur Frage: Nein, dies war die einzige Meldung zu diesem Scrub. Mittlerweile...