Really? Das ist ja ein interessantes Konzept! Danke, ich behalte das im HinterkopfBTW: Wir verkaufen unser Know-How auch.
Really? Das ist ja ein interessantes Konzept! Danke, ich behalte das im HinterkopfBTW: Wir verkaufen unser Know-How auch.
# systemctl add-requires remote-fs-pre.target ocfs2.service
Failed to add dependency: Unit /run/systemd/generator.late/ocfs2.service is transient or generated.
Ahja, natürlich. Leuchtet ein ... ich sehe mich gleich danach um, dankeWenn das Storage per Multipath angebunden ist, müsst Ihr noch den multipathd installieren und einrichten. Dann gibt es entsprechende Devices unter /dev/mapper, die dann auch genutzt werden müssen.
Ich bin nun am Starten mit OCFS2. Service läuft, vor dem Formatieren habe ich noch eine Verständnisfrage:
Ein Teil der Systemd-specifics hatte einen Fehler geworfen:
Bash:# systemctl add-requires remote-fs-pre.target ocfs2.service Failed to add dependency: Unit /run/systemd/generator.late/ocfs2.service is transient or generated.
Ist den Snapshot ein Muss Kriterium? Meine Kunden habe ich alle überzeugen können, dass Backup statt Snapshot ausreichend ist.PBS bereits produktiv, klappt soweit. Das war Bedingung, um etwaige VMs drauf zu ziehen.
Wenn keine Snapshots: dennoch OCFS2, oder was Anderes? Thin Provisioning ist für den Kunden derzeit eigtl auch keine Anforderung: die Platten im Storage sind nur etwa halb durch die produktive VMware-LUN in Verwendung.
Dann kannst du ja einiges Parallel migrieren.(a) da ist noch Platz auf den vorhandenen Platten im Storage
Ich würde nicht mehr in das alte Storage investieren, sondern lieber Disks in die Hosts und eventuell einen Ceph Pool Parallel aufbauen und den mit der Zeit wachsen lassen.(b) da sind noch zig Slots frei im Storage (ob die alle auch einen Controller dran haben, weiß ich ad hoc nicht)
ODer in den Nodes benutzen.(c) die SAS-SSDs, die ich aktuell lokal als RAID-1 (2 disks) in den 3 Temporär-PVEs betreibe, kann man dann später evtl ins Storage rein siedeln (Rahmen und Controller vorausgesetzt)
Es gibt keine Pauschal immer passende Entscheidung, ich beurteile das bei Jedem Projekt individuell anders. Immer je nach gegebenheiten. Angefangen beim alter der Hardware, Typ der Hardware und ganz wichtig, das Netzwerk und die Verkabelung (Ausbaufähigkeit des Netzwerks).(d) es werden noch VMs dazu kommen, aber nicht Faktor 2 oder mehr
Ich denke, das ist jetzt eine sehr grundlegende und weitreichende Entscheidung, wie man dieses Storage aufbaut (no na), da höre ich gerne Eure Empfehlungen und pros and cons. Gerne immer das Beste, sofern ich es ausreichend verstehen und betreiben kann ;-)
Die Multipath Konfiguration am besten immer beim Storagehersteller besorgen. Da gibts unterschiedliche Empfehlungen.multipath.conf von hier weitgehend abgekupfert ... WWIDs rausgefunden und eingetragen ... LUN nun als Device in "/dev/mapper" sichtbar, neu formatiert.
Auf Kernel "6.2.16-5-pve" gepinnt, rebootet. Erste Test-VM nach einem Kaffee.
EDIT: die multipath-Parameter sind vermutlich noch schwer zu hinterfragen und essentiell für Performance und Stabilität.
EDIT2: found https://pve.proxmox.com/wiki/ISCSI_Multipath ... sry
multipath -a /dev/sdb
wenn sdb ein Pfad zu deiner LUN ist.Ich habe die conf mittlerweile stark eingedampft. Ich werde dazu noch HPE-seitig suchen. Danke!Die Multipath Konfiguration am besten immer beim Storagehersteller besorgen. Da gibts unterschiedliche Empfehlungen.
Um die WWIDs einzutragen einfach über ein Pfad-Device machen:multipath -a /dev/sdb
wenn sdb ein Pfad zu deiner LUN ist.
Machen wir! dankeOder aio=threads setzen: https://forum.proxmox.com/threads/p...nd-ocfs2-shared-storage-with-io_uring.140273/
Ist den Snapshot ein Muss Kriterium? Meine Kunden habe ich alle überzeugen können, dass Backup statt Snapshot ausreichend ist.
Dann kannst du ja einiges Parallel migrieren.
Ich würde nicht mehr in das alte Storage investieren, sondern lieber Disks in die Hosts und eventuell einen Ceph Pool Parallel aufbauen und den mit der Zeit wachsen lassen.
ODer in den Nodes benutzen.
Es gibt keine Pauschal immer passende Entscheidung, ich beurteile das bei Jedem Projekt individuell anders. Immer je nach gegebenheiten. Angefangen beim alter der Hardware, Typ der Hardware und ganz wichtig, das Netzwerk und die Verkabelung (Ausbaufähigkeit des Netzwerks).
corosync.conf
, kann das sein, dass mir die fehlt? (stand auch nicht im HOWTO ... ). Mein obiger Link zur Fehlermeldung geht in eine privat-Nachricht, sorry, ich reiche die Meldung hier nach.dlm.service
auch bereits mit 2 Nodes starten und laufen? @garfield2008 vermutete im private thread, dass evtl ein 3. Node noch fehlt.# cat /etc/dlm/dlm.conf
# Enable debugging
log_debug=1
# Use tcp as protocol
protocol=tcp
# Delay at join
post_join_delay=10
# Disable fencing (for now)
enable_fencing=0
# systemctl status dlm
× dlm.service - dlm control daemon
Loaded: loaded (/lib/systemd/system/dlm.service; enabled; preset: enabled)
Active: failed (Result: exit-code) since Tue 2024-04-30 04:00:24 CEST; 2s ago
Docs: man:dlm_controld
man:dlm.conf
man:dlm_stonith
Process: 325848 ExecStartPre=/sbin/modprobe dlm (code=exited, status=0/SUCCESS)
Process: 325849 ExecStart=/usr/sbin/dlm_controld --foreground $DLM_CONTROLD_OPTS (code=exited, status=1/FAILURE)
Main PID: 325849 (code=exited, status=1/FAILURE)
CPU: 5ms
Apr 30 04:00:24 srv3 systemd[1]: Starting dlm.service - dlm control daemon...
Apr 30 04:00:24 srv3 dlm_controld[325849]: 42593 dlm_controld 4.2.0 started
Apr 30 04:00:24 srv3 dlm_controld[325849]: 42593 corosync cfg init error 2
Apr 30 04:00:24 srv3 systemd[1]: dlm.service: Main process exited, code=exited, status=1/FAILURE
Apr 30 04:00:24 srv3 systemd[1]: dlm.service: Failed with result 'exit-code'.
Apr 30 04:00:24 srv3 systemd[1]: Failed to start dlm.service - dlm control daemon.
Ein NIC, oder jeweils ein NIC?* Passt das mit der einen Gigabit-NIC für OCFS2 und Corosync?