Recent content by Ingo S

  1. Ingo S

    Exzessive Kernel Log Meldungen

    Ich habe jetzt alle Kernel Versionen ab 6.13 generic durch probiert. Bei Version 6.15.11 tritt das Problem nicht auf, bei 6.16.0 schon, allerdings nicht jede Sekunde, sondern in unregelmäßigen Abständen zwischen 5-34s. Auffällig ist auch, dass in Version 6.16.0 das Netzwerk nicht funktioniert...
  2. Ingo S

    Exzessive Kernel Log Meldungen

    Leider gibt es für diese Server keine aktuellere Firmware mehr. Es handelt sich um ein Supermicro X10DRi, also super alt. Ich hab es gerade geprüft, auf allen Servern mit diesem Board tritt das Problem auf. Ist also definitiv irgendwas mit der aktuellen Kernel Version 6.17.2-2-pve
  3. Ingo S

    Exzessive Kernel Log Meldungen

    Nachtrag: Leider hat sich herausgestellt, dass ohne ACPI unsere Ethernet Adapter keinen Link bekommen. Offensichtlich ist ACPI für das Powermanagement der Intel X520-SR2 Ethernet Adapter notwendig. Yikes!
  4. Ingo S

    Exzessive Kernel Log Meldungen

    Danke. Ich habe für diesen Boot einmal temporär acpi=off in die Kernel Parameter eingetragen. Damit sind die Meldungen erstmal weg und spammen unser Log nicht mehr voll.. Nach dem nächsten Kernel Update werde ich dann mal gucken ob das Problem wieder auftritt.
  5. Ingo S

    Exzessive Kernel Log Meldungen

    Ja, der Text ist immer gleich, außer diese Adressen: Dec 08 15:49:00 vm-2 kernel: Local0: 00000000554f9b7c <Obj> Integer 0000000000003E03 Dec 08 15:49:00 vm-2 kernel: Local1: 00000000874112c9 <Obj> Integer 0000000080040011 Dec 08 15:49:00 vm-2 kernel: Local5...
  6. Ingo S

    Exzessive Kernel Log Meldungen

    Hallo zusammen seit kurzem spuckt einer unserer PVE Server im Kernel Log jede Sekunde folgende Meldung aus: Dec 08 15:49:00 vm-2 kernel: Initialized Local Variables for Method [H2RD]: Dec 08 15:49:00 vm-2 kernel: Local0: 00000000554f9b7c <Obj> Integer...
  7. Ingo S

    Planung Proxmox Cluster + Storage

    Bei uns ist es eine Kombination aus beidem. Unser Ceph Main Storage besteht aus HDDs. Da kommen wir mit 32 parallelen 4k small reads auf ca 1500-1800iops bei 30 Platten. Das kommt hin mit dem was ich erwarten würde. Beim SSD Pool hab ich noch nie mehr als 6000iops gesehen. Aber unser ganzer...
  8. Ingo S

    Planung Proxmox Cluster + Storage

    Haha ja, IT ist voll mit Rabbitholes. Darum mag ich den Job so gern. Ich habe gerade nen ganz netten Guide gefunden, wie das mit ZFS over iSCSI und Proxmox funktioniert: https://blog.haschek.at/2023/zfs-over-iscsi-in-proxmox.html Also LIO it is... Die 3.2TB SSDs habe ich jetzt durch 7.68TB...
  9. Ingo S

    Planung Proxmox Cluster + Storage

    Dann würde ich wohl tatsächlich NVME bevorzugen, sofern uns das gegenüber SAS dann nicht ein Vermögen extra kostet. Das muss sich dann bei der Marktanalyse zeigen. ocfs Rabbithole? Ich falle immer in solche Rabbitholes... Oh weia :eek: Aber ich hab gerade gesehen, das ist Oracle. Nope...
  10. Ingo S

    Planung Proxmox Cluster + Storage

    Ja, wir werden dafür einen 2x oder 4x redundanten 25Gbit Uplink zum NAS nutzen. Der Storage wird auf jeden Fall mit SSDs gebaut. Es ist noch nicht ganz raus, ob NVME oder SAS. Ich hatte auch kurz dran gedacht, ob NVMEoF nicht auch was wäre. Ich finde aber nicht raus, ob das dann ebenfalls wie...
  11. Ingo S

    How do I hide the fact to Windows that it runs in a VM?

    I'm not saying you are cheating, but, thats exactly what anti-cheat software is looking for. This will always be a cat and mouse game and you will never get support neither from EAC nor the game devs. Unfortunately, though pretty cool, to game with mutliple people on one rig, this will never be...
  12. Ingo S

    Planung Proxmox Cluster + Storage

    Danke erstmal für euren Input. @FrankList80 Interessantes Konzept. Allerdings ist das bei uns so nicht umsetzbar. Wir haben ein paar dicke Brummer von VMs, die sich im TB Bereich bewegen. Da wäre die Recovery Zeit einfach zu lang. Letztlich hängt sowas natürlich immer an den Anforderungen des...
  13. Ingo S

    Planung Proxmox Cluster + Storage

    Moin zusammen Ich plane zur Zeit einen neuen Proxmox Cluster. Dieser wird wahrscheinlich aus 4 Hosts bestehen. Mich treibt die Frage um, wie ich den Storage am besten designen könnte. Zur Zeit nutzen wir Ceph. Obwohl ich Ceph wirklich super finde, was die Sicherheit und "ease of use" angeht...
  14. Ingo S

    [SOLVED] Welche OSD nutzt welche SSD WAL/DB Partition

    So, endlich Zeit gefunden. Tatsächlich war der "Trick" der mir nicht mehr einfiel folgender: Mit ceph-volume lvm list <OSD device> bekommt man alle Details über das Device Und da steht unter [db] ganz klar, welche Partition verwendet wurde. Das habe ich in dem IBM Artikel wiedergefunden...
  15. Ingo S

    [SOLVED] Welche OSD nutzt welche SSD WAL/DB Partition

    Danke, das kannte ich noch nicht. Das werde ich mir mal durchlesen. Beim ersten Überfliegen ist glaube ich genau das drin, was ich gesucht habe.