Search results

  1. I

    [SOLVED] Option --transfer-last kann nicht rückgängig/verändert werden

    Hallo an alle, musste einen defekten Offsite/secondary-PBS neu installieren, so weit alles gut. Um relativ schnell wieder alle Namespaces gesynct zu bekommen, habe ich die Funktion im Sync-Job benutzt. Soweit alles gut, nun sind alle Namespaces mit den letzten 3 Tagen gesynct. Nun wollte ich...
  2. I

    PVE nested Virtualisierung (HyperV-Guest) am Ceph-HA-Cluster Live-Migrations-fähig?

    Soweit läuft alles sehr gut, würde nur wissen, ob auch die Live-Migration (idente Hardware) am HA-Cluster funktioniert. Hat da wer damit Erfahrung? Im Wiki steht, das es NICHT gehen soll...?
  3. I

    Update Ceph 17.2.1 -> 17.2.4 Crash / unable to find a keyring

    Das heutige Update lief nicht so gut, hat da jemand einen Tip? Oct 19 14:32:48 nod150a12 ceph-crash[1299]: WARNING:ceph-crash:post /var/lib/ceph/crash/2022-10-19T12:19:25.374934Z_de56ee36-46e8-4b5c-8ed2-32e78dde7552 as client.admin failed: (None, b'') Oct 19 14:32:48 nod150a12 ceph-crash[1299]...
  4. I

    Neuer Cluster CEPH 4-Node nur 50% am Pool verfügbar?

    Habe einen 4-Node Ceph-Cluster mit jeweils 5 NVMe´s (6,4TB) installiert. Ebenfalls einen 3/2er Pool mit 515 pg_nums. Als freien Speicherplatz am Pool werden mir an einem Node aber nur 40TB angezeigt. Habe ich was übersehen? (oder ist es einfach nur schon spät.... :rolleyes: ) Anders gefragt...
  5. I

    [SOLVED] Korrekter Ablauf HA-Cluster mit Ceph - Hardwarewartung Node

    Hi, wie ist denn der "korrekte" Ablauf, wenn zB. bei einem 4er-HA-Ceph-Cluster an einem Node eine längere (1 Stunde) Hardwarewartung ansteht, ohne ein Ceph-Recover auszulösen?
  6. I

    [SOLVED] Node Crash/Reset ohne jegliche Log-Einträge

    Ein Node ist heute ohne Vorwarnung gecrasht, leider ohne jeglichen Logeinträge.... Gibts grad einen Bug dahingehend?
  7. I

    [SOLVED] Fehlermeldung Neuinstallation "Hostname does not look like a fully qualified domain name."

    Hi, hatte so einen Fehler noch nie... Neuinstallation PVE 7.2.1 ISO -> Netzwerkkonfiguration -> Hostname (FQDN) -> da gebe ich (abgeändert) n123a1.domain.at ein und bekomme folgende Fehlermeldung: "Hostname does not look like a fully qualified domain name." Leider gehts dann nicht weiter...
  8. I

    [SOLVED] Nach Upgrade auf 2.2.3 Prune Fehlermeldung

    parameter verification errors keep-last: datastore prune settings have been replaced by prune jobs Die vormaligen Settings sind verschwunden. Was hat sich da geändert? Edit: Wo sind nun die "neuen" prune jobs zu konfigurieren?
  9. I

    Was bedeuten die Einträge "pmxcfs[2817]: [status] notice: received log"

    Habe in einem Ceph-Cluster seit dem Upgrade auf 7.2 ab und zu folgende Einträge im syslog: pmxcfs[2817]: [status] notice: received log Was bedeutet das im Detail? lg
  10. I

    [SOLVED] Deaktivierung paralleller Backup-Jobs mit PBS

    Hallo, habe folgendes problem: Cluster mit 3 Nodes & einem PBS. Wenn ich jetzt zB. einen PBS-Datastore eingerichtet habe inkl. einen täglichen Backupjob (Clusterübergreifend), dann starten die Nodes gleichzeitig ein Backup. Wie kann ich das limitieren, dass die Nodes nicht parallel das Backup...
  11. I

    Hinzufügen eines non-ceph-node zu bestehenden ceph-cluster (replikation)

    Hallo an alle, vielleicht sehe ich den Wald vor lauter Bäume nicht: Ich würde gerne zu einen bestehenden 3-Node-Ceph-Cluster einen zusätzlichen Node ohne Ceph zwecks Replikation hinzufügen. Geht das überhaupt? Dieser sollte als Ausfallnode dienen, sollte der komplette 3er-Cluster ausfallen. lg
  12. I

    [SOLVED] Proxmox Backup Error nach heutigem Update

    https://forum.proxmox.com/threads/backup-fails-with-pbs.103242/ Gibts dazu schon Updates?
  13. I

    gegenseitiges Sync zweier PBS

    Hallo, ist das möglich? Also zwei Standort-getrennte PBS, die sich gegenseitig syncen?
  14. I

    Ceph , Logeinträge Bedeutung

    Kann mir wer die Bedeutung folgender Logeinträge erklären? Diese treten immer nach einem reboot eines Nodes auf: Dec 14 17:50:45 c01-n03 ceph-osd[3191]: 2021-12-14T17:50:45.729+0100 7f064c89df00 -1 osd.7 3318 log_to_monitors {default=true} Dec 14 17:50:45 c01-n03 ceph-osd[3191]...
  15. I

    Node im 3er-Cluster plötzlicher Crash

    Einer unserer Nodes hat plötzlich den geist aufgegeben: Vom betroffenen Node: Dec 10 12:52:21 c01-n03 ceph-osd[3327]: 2021-12-10T12:52:07.932+0100 7face6838700 -1 osd.8 3000 heartbeat_check: no reply from 10.20.1.222:6806 osd.5 since back 2021-12-10T12:52:20.392101+0100 front...