Ja und? Dafür kann PVE Ceph als Storage nehmen, ob direkt auf dem Knoten oder als externen SpeicherPVE aber nicht.
Abgesehen davon, das PVE sowieso in der Lage sein sollte fast beliebige externe Zentralspeicher einzubinden, interessiert es mich schon brennend, wie du mit Speichermedien einzelner Knoten eines PVE-Clusters ein HA-Speichermedium dengelst.Ja und? Dafür kann PVE Ceph als Storage nehmen, ob direkt auf dem Knoten oder als externen Speicher
OK, ohne zu lesen bin ich da nicht sattelfest, was das umpartitionieren angeht. Ist ja momentan alles LVM.Den aktuellen Cluster kannst du schon so lassen, für Storage Replication brauchst du halt mindestens einen gleichlautenden ZFS-Storage auf beiden Knoten.
Es wird allerdings empfohlen für die Cluster-Kommunikation und die Datenübertragung jeweils eigene Netzwerkverbindungen zu haben, damit die Latenzen schön niedrig bleiben
Pick your poison
Professionelles failover muß auf Applikationsseite existieren
Es wird ja durch LINBIT supported. Aber vielleicht meinst du gar nicht mich mit dem "dranflicken" ;-)Das an pve dranzuflicken halte ich allerdings auch für verwegen.
Isso!Anwender waren schon immer ein gut funktionierendes Monitoring.
![]()
Nix gegen DRBD an sich.Oha, das werden die Macher von DRBD bei LINBIT aber nicht gerne lesen. Ich hatte das auch nicht als Bastellösung eingestuft, als ich nach einer Lösung für HA suchte.
Was ist denn eine "vernünftige" Lösung für den Betrieb zuhause?
Die heimische Produktion:
2 PVE Hosts plus ein QDevice (wenn für eine Lösung nötig, füge ich auch gerne einen 3. Knoten an Stelle des RasPi QDevice hinzu)
Energieeffizient (bei mir laufen Mini-PCs mit << 20 W/h)
Standardkomponenten
Jeder Knoten hat eine interne NVMe - kein zusätzlicher Shared Storage für den Betrieb notwendig
Die eingesetzten Applikationen sollen entweder fault-tolerant oder automatisch auf anderen PVE Nodes restartable sein.
Dazu müssen Applikationsdaten verteilt verfügbar sein. Das kann über die App selbst oder eben per Shared Storage funktionieren.
App-intern: Applikation ist für Multi-Host HA-/Fault-Tolerance ausgelegt und repliziert die notwendigen Daten selbst übers Netzwerk (z.B. OpnSense)
Shared Storage (die Applikation bietet selbst keine Möglichkeit der Datenreplikation):
- der Container oder die VM mit Docker wird zwischen PVE Knoten repliziert oder
- die Applikationsdaten müssen repliziert werden
Eine synchrone Replikation wäre schön, da kein Datenverlust (deswegen kam ich auf DRBD). Wenn allerdings keine synchrone Replikation in dieser Umgebung vernünftig ist (bislang fällt für mich Ceph bei meiner Umgebung in dieses Raster), wäre wohl eine zeitlich wenig verzögerte asynchrone Replikation das Nächstliegende, z.B. per ZFS (muss ich eben den PVE Cluster neu machen).
Als Neuling habe ich vielleicht das Naheliegende übersehen und freue mich daher über einen Lösungsvorschlag.
Gerade pihole ist auch ein super Beispiel, wie man die Hochverfügbarkeit auf der Anwendungsebene einrichtet:Ich empfehle, die aus HA-Wünschen resultierenden Fehlerquellen und Aufwand zu eliminieren.
Ich nutze z.B gerne Pihole als DHCP/DNS Gespann.
OK, ohne zu lesen bin ich da nicht sattelfest, was das umpartitionieren angeht. Ist ja momentan alles LVM.
Es gibt doch recht wenig, was wirklich synchron oder richtig fault-tolerant sein muss. Wenn ich durch meine Applikationen gucke: OPNsense, weil sonst ist die Internetverbindung weg und der Rest der Bewohner meldet das schneller als jedes Monitoring ;-)
Nahezu alle Applikationen sind sehr schnell aufgesetzt, meistens reicht es die Konfigurationsdateien abgespeichert zu haben (habe ich alle im Git).
Bei allen Apps wäre es aber wünschenswert, wenn die nach Ausfall eines PVE Hosts auf dem anderen automatisch starten. Da sich die Konfigurationen seltener ändern könnte ich die Apps auf beiden Nodes installieren und ab und an zwischen den Nodes den aktuellen Status (nicht Konfiguration) abgleichen.
Was beunruhigt dich in dem Posting von @meyergru? Ich finde OPNSense läuft super in PVE. Ich betreibe OPNSense bei mir gem. "Falle 1" und das als HA (auf Applikationsebene), also Internet -Fritzbox - (Zwischen-LAN) - OPNSense - interne LANs. Ja, mit Double-NAT, was überhaupt kein Problem ist, weil nur genau 2 interne Systeme aus dem Internet erreichbar sind: 1x WireGuard auf der OPNSense selbst und 1x ein Reverse Proxy (auch PVE) per HTTPS-only, der auf andere interne System verteilt, ggfs. mit weiterer Authentifizierung per Keycloak. Da gibt es Double-NAT, aber ohne Probleme und alles läuft über die OPNSense.Ich habe aus genau den Grund davon abgesehen OPNsense zu virtualisieren, mein Internetzugang läuft (weiterhin) über die Fritzbox. Nun geht es mir schon auf die Nerven, dass die wireguard-Funktionalität davon in Vergleich zu OPNSense/pfSense oder OpenWRT sehr kastriert ist, deshalb überlege ich mir dafür einen China-Router (Mini-PC mit mehreren Ethernet-Ports von den üblichen Quellen) anzuschaffen und darauf dann die Sense oder OpenWRT baremetal zu betreiben. Selbst da bin ich mir nicht sicher, ob ich das will, seitdem ich folgendes Posting von @meyergru gelesen habe: https://forum.opnsense.org/index.php?topic=39556.0
Was ist Plex?Medienbibliothek von Plex oder so
Sehe ich inzwischen genauso, wie in deinem letzten Abschnitt beschrieben. Was verliere ich denn an Daten? Logs! Letzte inhaltliche Änderungen werden nach dem Neustart einer VM oder eines CT bei meinen Apps automatisch wieder hergestellt. Für DHCP/DNS setze ich Technitium ein. Da verliere ich ggfs. den DHCP Log Eintrag. Der dadurch angelegte DNS Record wird applikationsintern repliziert und alle Technitium-Instanzen prüfen vor Ausgabe einer DHCP-Adresse per ping, ob tatsächlich frei.Naja, solange du mit einen kleinen Datenverlust leben kannst, ...
Auch diese wirkliche gute Beschreibung behandelt nur DNS. I.d.R. betreibt man Pihole aber zusätzlich auch als DHCP-Server. Da lauert dann schon die eine und andere Fußangel, welche man zwar mit Trick 17 entschärfen kann, aber nicht richtig glücklicher macht. Deshalb starte ich, im ohnehin unwahrscheinlichen Fall eines Pihole-Ausfalls, lieber eine möglichst aktuelle "schlafende" Pihole-VM statt mir die dauerhafte Komplexität von keepalived und Gravity ans Bein zu binden.Gerade pihole ist auch ein super Beispiel, wie man die Hochverfügbarkeit auf der Anwendungsebene einrichtet:
https://delightlylinux.wordpress.co...zed-pi-hole-with-keepalived-and-gravity-sync/
Statische Einträge kann PiHole mittels Gravity inzwischen ja sogar. Statische Einträge sind aber irgendwie 80er. Ein DHCP-Server sollte eine Anmeldung einfach transparent an einen oder gar mehrer DNS-Server melden. Da liegt der Hase im Pfeffer.Stimmt, ist aber nur ein Problem wenn man dynamische DNS Registrierung der Clients benötigt, für kleine (Heim)Netze sehe ich da keine Notwendigkeit. Die wichtigen Hosts (VM's) kann man ja statisch im DNS registrieren. Hängt natürlich immer von der Größe des Netzes und vom gewünschten Funktionsumfang ab.
Verstehe ich es richtig, dass ihr eine PiHole-VM auf einem zentralen Speicher abgelegt habt und bei nicht Erreichbarkeit des "Masters", diesen auf einem anderen PVE-host startet? Klingt tricky aber gut.Wir haben auch 2 "halbe" pihole mit eigenem Abgleich, kann jeden stoppen und alles geht weiter wie DNS und irgendwelche vm/lxc booten.
Ein pve können wir auch ausschalten und dank ha config fährt der dann "vermisste" Kram automagically auf anderen Nodes wieder hoch da alle images per nfs.
DNS/DHCP ist in meinen Augen DER zentrale Dienst, der auch in Mininetzen ohne Geprökel funktionieren sollte.Stimmt, ist aber nur ein Problem wenn man dynamische DNS Registrierung der Clients benötigt, für kleine (Heim)Netze sehe ich da keine Notwendigkeit. Die wichtigen Hosts (VM's) kann man ja statisch im DNS registrieren. Hängt natürlich immer von der Größe des Netzes und vom gewünschten Funktionsumfang ab.
Warum verteilen die DHCP-Server denn nicht den identischen Bereich?Nein, wir haben 2 pihole als 2 lxc auf 2 pve laufen und vergeben beide dhcp IP's mit jeder 1 halben Bereich und beantworten aber beide alle DNS Anfragen, weil sie sich auch gegenseitig bzgl. neu vergebener IP's aufschlauen.
Weil die pihole's nichts von einander wissenWarum verteilen die DHCP-Server denn nicht den identischen Bereich?
Ist selbstgescripted.Der "Trick" mit gegenseitigem DNS-Abgleich sollte doch auch dann funktionieren?
We use essential cookies to make this site work, and optional cookies to enhance your experience.