Recent content by p.jahn

  1. P

    Spamerkennung optimieren

    Das hilft mir sehr weiter, vielen Dank für den Tipp! Die spamassassin Regel werde ich mal ausprobieren.
  2. P

    Spamerkennung optimieren

    Inzwischen ist der Bayes Filter im PMG 8.0 ja per default deaktiviert. [1] Gibt es außer den im Wiki beschriebenen Möglichkeiten noch etwas, um die Spamerkennung zu optimieren? [1] https://pmg.proxmox.com/wiki/index.php/Upgrade_from_7_to_8#Breaking_Changes
  3. P

    [SOLVED] Ceph Pacific Issue

    It seems that I have the same issue since I updated to the latest PVE 7.4-3 last weekend. Jun 06 08:09:51 pve01 ceph-crash[3725]: WARNING:ceph-crash:post /var/lib/ceph/crash/2023-06-03T14:02:40.223217Z_2a44a29b-9280-4f6a-9275-d65f628c1699 as client.crash.pve01 failed: Error initializing...
  4. P

    Spamerkennung optimieren

    Der Bayes Filter funktioniert wohl nur zuverlässig, wenn man ihn mit einer großen Anzahl an Trainingsdaten versorgt. Hier [1] schrieb dcsapak dazu folgendes: [1] https://forum.proxmox.com/threads/changing-bayes-configuration.125536/post-548118
  5. P

    Spamerkennung optimieren

    Hallo zusammen, ich verwende schon länger PMG und es funktioniert auch ziemlich gut. Seit einigen Wochen erhalte ich täglich mehrere Mails, welche inhaltlich immer ähnlich und offensichtlich Spam sind aber vom Filter leider nicht erkannt werden. Hier ein Beispiel: Die Mail hat im...
  6. P

    PVE7.2: errors in OSD logs after upgrade from Ceph Pacific to Quincy

    Hello mira, I think so, too. Thank you for clarifying. Regards Patrick
  7. P

    PVE7.2: errors in OSD logs after upgrade from Ceph Pacific to Quincy

    Hello everyone, last weekend I did upgrade my cluster from Ceph Pacific 16.2.9 to Quincy 17.2.4 without any issues. Ceph status is HEALTH_OK and everything is working. While checking the logs I found plenty of this line in the OSD logs: 2022-10-22T16:01:09.412+0200 7f727824f240 0...
  8. P

    CEPH: 4 OSDs on 4 different nodes went down at once

    Hello everyone, I'm running a hyperconverged Proxmox/CEPH cluster with 2/4 replication. Everything was fine but yesterday more and more PGs became laggy and 4 OSDs on 4 different nodes went down at once. Eventually OSD 5 was set OUT by CEPH and the cluster recovered and is now healthy...
  9. P

    Proxmox with Ceph - Disk crashed rate is too high

    Did you find a solution? I get the same errors with Samsung SM863a drives connected to a Broadcom/LSI 9305 HBA. Happens random on 4 nodes as soon as I boot Kernel 5.11 or 5.13 but 5.4 seems fine.
  10. P

    Buffer I/O error nach Update von 6.4 auf 7.1

    UPDATE: Der Kernel 5.11 brachte leider keine Abhilfe und die Fehler traten weiterhin auf. Wie ich inzwischen festgestellt habe, sind auch weitere Nodes betroffen. Ich konnte auch noch Meldungen identifizieren, welche kurz vor den I/O errors auftreten. Dec 26 19:44:29 pve01 kernel...
  11. P

    Buffer I/O error nach Update von 6.4 auf 7.1

    Hallo zusammen, ich habe gestern einen 5 Node HCI Cluster von Proxmox VE 6.4 auf 7.1 aktualisiert und Ceph von Octopus auf Pacific. Das Update an sich lief problemlos durch und gestern Abend war alles ok und Ceph war Healthy. Heute musste ich jedoch feststellen, dass die WebUI auf 2 Nodes...
  12. P

    [SOLVED] Meldung "bad crc in data" in Ceph OSD Log

    Nachdem jetzt endlich das defekt Modul getauscht wurde, habe ich KRBD wieder aktiviert und es sind bisher keine Fehler mehr aufgetreten.
  13. P

    [SOLVED] Meldung "bad crc in data" in Ceph OSD Log

    Ich habe am Wochenende KRDB deaktiviert und alle VMs einmal auf einen anderen Node migriert. Bisher wurden keine weiteren CRC Fehler protokolliert. Beim prüfen der Logs sind mir allerdings folgende Meldungen aufgefallen. Oct 26 12:13:12 pve04 kernel: [696001.339584] EDAC skx MC1: HANDLING MCE...
  14. P

    [SOLVED] Meldung "bad crc in data" in Ceph OSD Log

    Ok, dann würde ich mal KRDB deaktivieren und die VMs neu starten. Werden die benötigten Metriken vom InfluxDB Plugin bereits exportiert oder müsste dafür z.B. Telegraf verwenden?
  15. P

    [SOLVED] Meldung "bad crc in data" in Ceph OSD Log

    Anbei ein Auszug von unserem Grafana Dashboard vom 19.10.2020 12-14 Uhr. In diesem Zeitraum sind mehrere CRC Fehler auf dem Nove PVE01 aufgetreten. Ich liefere gerne noch weitere Informationen, wenn Du mir mitteilst, wie ich diese erhalten kann.