Doch, schau nochmal genau: bei || reicht es wenn eine Seite wahr ist. Wenn FORCEFAILOVER == 0 (also Normalzustand), ist die linke Seite schon wahr, damit ist die ganze Bedingung wahr, egal was MASTERGWUP sagt. Der Master-GW-Check wird zwar...
Ja stimmt, guter Punkt. Wenn man nicht grad nen identischen Node auf Lager hat kann das schnell Tage oder Wochen werden bis was geliefert wird. Nen kleinen Standby-Node im zweiten Brandabschnitt vorhalten der im Normalfall idle ist (oder leichte...
Aber mit ein paar Stunden bist du da oft nicht dabei, vor allem nicht jetzt wo du gar keine Hardware bekommst. Eventuell hat man da im zweiten Raum etwas Hardware um einen Notbetrieb zu gewährleisten, aber auf Lieferung von externer Hardware kann...
Hallo Bu66as,
ganz herzlichen Dank für deine ausführliche Reparaturanleitung !
Leider habe ich inzwischen alles komplett neu aufgesetzt und sämtliche alten "Sicherungen" gelöscht. Kam jetzt leider zu spät, sorry...
OK, dann passt das mit dem && erst recht. Deine Beschreibung ("wenn 0, nur bei aktivem Master zurückschalten") ist genau die &&-Logik. Mit dem || im aktuellen Script würde er auch recovern wenn der Master noch down ist, solang FORCEFAILOVER auf 0...
interessantes projekt, aber hast du schonmal gedacht, zumindest teile davon bei uns upstream zu bringen? zb zusätzliche spalten im tree ist denk ich etwas was wir vllt reinnehmen würden.
bei dem cluster resources ist es so, dass wenn die config...
Cooles Projekt, das kannte ich noch nicht! Und was @dcsapak sagt bzgl. upstream würde ich auf jeden Fall überlegen, gerade sowas wie zusätzliche Spalten im Tree wäre super.
Tip:
Für die ZFS Pools die /dev/disk/by-id/ Namen statt sdX benutzen, ermitteln mit:
ls -l /dev/disk/by-id |grep sde2
zpool status
NAME STATE READ WRITE CKSUM
rpool...
Das mit den Immutable Backups bei Veeam ist nur notwendig weil das Backup Repository immer erreichbar sein muss. Außerdem ist das nicht wirklich unveränderbar, sondern nur der User mit dem Backups geschrieben werden, darf keine root Rechte haben...
Ja dann ist die VM noch gesperrt. Ist denn der Restore schon fertig?
Wenn du sicher bist, dass der restore durch ist, kannst du mit qm unlock die VM entsperren. Normalerweise bleibt die VM aber nur während des Restores gesperrt.
Guten Morgen in der neuen Woche. Nur kurz Status: Belegung unverändert, trotz eines weiteren absolvierten Scrubs.
Wir haben sehr wahrscheinlich keine so speziellen Platten, muss ich noch prüfen (die waren damals gebraucht und geprüft für...
Die 69k IOPS ohne --sync=1 zeigen, deine NVMe sind völlig in Ordnung, da ist nix kaputt. Das Problem ist spezifisch der sync-Write-Pfad durch den ZIL auf RAIDZ1.
Das ist in der Regel harmlos. Passiert bei Cloud-Init Images häufig, weil die VM erstmal mit der RTC-Zeit hochkommt und dann systemd-timesyncd (oder chrony) die Zeit korrigiert. Journald merkt den Sprung und rotiert die Logs, das wars.
Das Problem steht in der Fehlermeldung: volume 'zfs2/vm-101-cloudinit' already exists. Beim Failover auf den anderen Node bleibt das alte Cloudinit-Volume auf n2 liegen. Wenn die VM dann zurück migriert werden soll, versucht er das...
Das ist im PBS Dashboard direkt angezeigt, oben. Oder auf der Shell:
proxmox-backup-manager cert info
Da steht der Fingerprint dabei. Am einfachsten ist aber: auf der PVE-Seite beim Hinzufügen des PBS-Storages das Fingerprint-Feld einfach leer...
Ja, das lässt sich fixen. Da es ein reines Daten-RAID ist, geht das relativ einfach: Pool exportieren und wieder importieren. Beim Import löst ZFS die Device-Namen neu auf und nimmt dann die by-id Pfade.
Erstmal die by-id Bezeichnung der neuen...
Gute Frage. Das Problem mit "continue" + "keep" auf Dauer ist genau das was du beschreibst: die Abhängigkeit vom ersten Tape wächst immer weiter, weil alle späteren Inkremente auf den Chunks vom ersten Backup aufbauen.
Zwei bessere Optionen:
Du...
Kein Ding, schade dass es zu spät kam. Aber jetzt wo du frisch aufgesetzt hast: Richte dir direkt vernünftige Backups ein, dann sparst du dir beim nächsten Mal den ganzen Stress. PBS oder notfalls vzdump auf die NAS, Hauptsache es läuft regelmäßig.