Bislang habe ich EINE NIC pro Node für beides konfiguriert. Aber ich verstehe ... und werde das noch entsprechend erweitern/umbauen. Danke!
hier bin ich noch unschlüssig. Das Setzen auf "threads" wäre beim nun anstehenden Migrieren der VMs für alle Disks zu machen.Oder aio=threads setzen: https://forum.proxmox.com/threads/p...nd-ocfs2-shared-storage-with-io_uring.140273/
Nein.Darunter ist auch der Node, auf dem ich den Cluster ursprünglich angelegt habe. Hat der irgendeine besondere Rolle/Eigenschaft, die ich vor Entfernen evtl auf einen anderen Node übertragen muss?
Hatte ich so vermutet, danke für die Bestätigung!Nein.
Der Umstand, dass dort der Cluster initiiert wurde, ist irrelevant. Genau, wie es keinen Master oder ähnliches gibt. Alle Nodes sind hinsichtlich der Clusterfunktionen gleichwertig.
Grundsätzlich ja, denn da entsteht nicht viel Traffic.Passt das mit der einen Gigabit-NIC für OCFS2 und Corosync?
OK; ich besorge Switch 2 und Kabel.Grundsätzlich ja, denn da entsteht nicht viel Traffic.
Für Corosync ist immer noch eine zweite unabhängige Netzwerkverbindung empfehlenswert.
Auf der separaten NIC ("Loop1") gibt es keinen Traffic von VMs. Der Storage-Traffic geht über SAS und der IP-Traffic geht über die andere NIC.Ich hab ja eine NIC für den Upstream-Traffic und bereits eine separate NIC für OCFS2 und Corosync ("Loop1").
So wie ich das verstehe, geht es um den Fall, dass Corosync wegen zu viel anderem Traffic verzögert wird. Das dürfte ja nicht der Fall sein bei wenigen VMs mit wenig IO.
Ich war unpräzise: ich meinte den Traffic des OCFS2-Clusters. Das ist wohl kein tatsächlicher Inhalt von Files, aber Meta-Daten oä, richtig?Auf der separaten NIC ("Loop1") gibt es keinen Traffic von VMs. Der Storage-Traffic geht über SAS und der IP-Traffic geht über die andere NIC.
Da sind nur die Lock-Infos, die da rübergehen, und ob die Knoten alle noch da sind. Trafficseitig vernachlässigbar.ich meinte den Traffic des OCFS2-Clusters. Das ist wohl kein tatsächlicher Inhalt von Files, aber Meta-Daten oä, richtig?
Ein NIC, oder jeweils ein NIC?
Corosync sollte nicht auf einem Kabel leben, auf dem der Storage massiven Datenverkehr verursacht. For Corosync sollten zwei "Links" konfiguriert sein, und der Primäre sollte am besten exklusiv dafür vorgesehen sein. Und ich meine damit ausdrücklich kein "separates VLAN", sondern echtes Kupfer.
Ich hab jetzt erstmal auf 6.2.16-20-pve gepinnt (auf den 3 Nodes mit OCFS2). Wenn man das AIO-Setting vergisst, wird es sonst unschön.
Soeben auf einem weiteren Node reproduziert: beim Upgrade von 8 auf 9 (bzw. Debian12 -> 13) werden o2cb und ocfs2 disabled.Peinlich, aber wahr: es dürfte nur daran gelegen haben, dass der Service `ocfs2.service` aus irgendeinem Grund disabled war.
Manuell hab ich das definitiv nicht gemacht, dürfte irgendwie im Rahmen des Upgrades passiert sein. Und ich hab das wochenlang übersehen (hatte das Thema auch mittlerweile liegen gelassen ...).
Das ist mir für ~50 VMs etwas zu viel Action, das manuell durchzugehen. Und was, wenn der Kunde eine neue VM ohne diese Optionen anlegt?Hallo @sgw,
danke für die Rückmeldung. Gut zu wissen, dass das Upgrade auf PVE 9 die Services o2cb und ocfs2 deaktiviert.
Da du das Problem nun gelöst hast, könntest du dir das Kernel-Pinning noch einmal ansehen. Wie von @gurubert in Post #31 erwähnt, könntest du mit dem aktuellen Kernel arbeiten, wenn du für die VMs auf dem OCFS2-Storage die Option aio=threads setzt. Das würde das Pinning auf die ältere Version überflüssig machen.
Hallo @sgw,
danke für die Rückmeldung. Gut zu wissen, dass das Upgrade auf PVE 9 die Services o2cb und ocfs2 deaktiviert.
Da du das Problem nun gelöst hast, könntest du dir das Kernel-Pinning noch einmal ansehen. Wie von @gurubert in Post #31 erwähnt, könntest du mit dem aktuellen Kernel arbeiten, wenn du für die VMs auf dem OCFS2-Storage die Option aio=threads setzt. Das würde das Pinning auf die ältere Version überflüssig machen.
aio=threads
ist eine Option pro virtueller Festplatte in der jeweiligen VM-Konfiguration (z.B. scsi0: dein-storage:100,aio=threads
). Du kannst diese Option auch auf den Nodes mit dem alten Kernel schon setzen, sie ist dort ebenfalls gültig.qm set
hinzufügt. Das erspart dir die manuelle Arbeit.We use essential cookies to make this site work, and optional cookies to enhance your experience.