Inzwischen ist der Bayes Filter im PMG 8.0 ja per default deaktiviert. [1]
Gibt es außer den im Wiki beschriebenen Möglichkeiten noch etwas, um die Spamerkennung zu optimieren?
[1] https://pmg.proxmox.com/wiki/index.php/Upgrade_from_7_to_8#Breaking_Changes
It seems that I have the same issue since I updated to the latest PVE 7.4-3 last weekend.
Jun 06 08:09:51 pve01 ceph-crash[3725]: WARNING:ceph-crash:post /var/lib/ceph/crash/2023-06-03T14:02:40.223217Z_2a44a29b-9280-4f6a-9275-d65f628c1699 as client.crash.pve01 failed: Error initializing...
Der Bayes Filter funktioniert wohl nur zuverlässig, wenn man ihn mit einer großen Anzahl an Trainingsdaten versorgt.
Hier [1] schrieb dcsapak dazu folgendes:
[1] https://forum.proxmox.com/threads/changing-bayes-configuration.125536/post-548118
Hallo zusammen,
ich verwende schon länger PMG und es funktioniert auch ziemlich gut.
Seit einigen Wochen erhalte ich täglich mehrere Mails, welche inhaltlich immer ähnlich und offensichtlich Spam sind aber vom Filter leider nicht erkannt werden.
Hier ein Beispiel:
Die Mail hat im...
Hello everyone,
last weekend I did upgrade my cluster from Ceph Pacific 16.2.9 to Quincy 17.2.4 without any issues.
Ceph status is HEALTH_OK and everything is working.
While checking the logs I found plenty of this line in the OSD logs:
2022-10-22T16:01:09.412+0200 7f727824f240 0...
Hello everyone,
I'm running a hyperconverged Proxmox/CEPH cluster with 2/4 replication.
Everything was fine but yesterday more and more PGs became laggy and 4 OSDs on 4 different nodes went down at once.
Eventually OSD 5 was set OUT by CEPH and the cluster recovered and is now healthy...
Did you find a solution?
I get the same errors with Samsung SM863a drives connected to a Broadcom/LSI 9305 HBA.
Happens random on 4 nodes as soon as I boot Kernel 5.11 or 5.13 but 5.4 seems fine.
UPDATE:
Der Kernel 5.11 brachte leider keine Abhilfe und die Fehler traten weiterhin auf.
Wie ich inzwischen festgestellt habe, sind auch weitere Nodes betroffen.
Ich konnte auch noch Meldungen identifizieren, welche kurz vor den I/O errors auftreten.
Dec 26 19:44:29 pve01 kernel...
Hallo zusammen,
ich habe gestern einen 5 Node HCI Cluster von Proxmox VE 6.4 auf 7.1 aktualisiert und Ceph von Octopus auf Pacific.
Das Update an sich lief problemlos durch und gestern Abend war alles ok und Ceph war Healthy.
Heute musste ich jedoch feststellen, dass die WebUI auf 2 Nodes...
Ich habe am Wochenende KRDB deaktiviert und alle VMs einmal auf einen anderen Node migriert.
Bisher wurden keine weiteren CRC Fehler protokolliert.
Beim prüfen der Logs sind mir allerdings folgende Meldungen aufgefallen.
Oct 26 12:13:12 pve04 kernel: [696001.339584] EDAC skx MC1: HANDLING MCE...
Ok, dann würde ich mal KRDB deaktivieren und die VMs neu starten.
Werden die benötigten Metriken vom InfluxDB Plugin bereits exportiert oder müsste dafür z.B. Telegraf verwenden?
Anbei ein Auszug von unserem Grafana Dashboard vom 19.10.2020 12-14 Uhr. In diesem Zeitraum sind mehrere CRC Fehler auf dem Nove PVE01 aufgetreten.
Ich liefere gerne noch weitere Informationen, wenn Du mir mitteilst, wie ich diese erhalten kann.
Vielen Dank für die Rückmeldungen.
Hier die gewünschten Informationen.
Node PVE01
root@pve01:~# uname -a
Linux pve01 5.4.65-1-pve #1 SMP PVE 5.4.65-1 (Mon, 21 Sep 2020 15:40:22 +0200) x86_64 GNU/Linux
top - 14:57:22 up 2 days, 3:45, 5 users, load average: 0.55, 0.54, 0.62
Node PVE02...
Hallo zusammen,
in der Firma betreiben wir einen Proxmox/Ceph Cluster mit 5 Nodes.
Ceph läuft auf 4 Nodes, der 5. wurde nachträglich zwecks Quorum hinzugefügt.
Am Wochenende habe ich auf allen Nodes die aktuellen PVE Updates installiert.
Hierbei ist mir an der IPMI Konsole aufgefallen, dass...
Hallo Udo,
vielen Dank für deine Antwort.
Ich hatte das BIOS zuletzt im Februar 2019 aktualisiet, als die Server in Betrieb gingen. Damals war die Verison 3.0a aktuell.
Inzwischen gibt es die Version 3.1a.
Mal schauen, ob der Server damit stabil läuft.
Viele Grüße
Patrick
Hallo zusammen,
wir haben in der Firma einen 4-Node-Cluster laufen.
Seit einigen Monaten startet der Node PVE01 nach einer Uptime von ca. 20-25 Tagen unerwartet neu.
Wir nutzen kein HA und der Hardware Watchdog ist im BIOS ausgeschaltet, daher kann ich mir nicht erkären, was den Neustart...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.