Recent content by crmspezi

  1. C

    Möglicher abweichender Weg zum Update einzelner PVE's (kein Cluster) von v6.1 auf v8.3 ?

    Ich danke euch beiden. Ich probiere das und berichte hier!
  2. C

    Möglicher abweichender Weg zum Update einzelner PVE's (kein Cluster) von v6.1 auf v8.3 ?

    Evtl. können mir die Jungs von Proxmox hier kurz antworten. Viele Grüße.
  3. C

    Möglicher abweichender Weg zum Update einzelner PVE's (kein Cluster) von v6.1 auf v8.3 ?

    Hallo zusammen, ich möchte einzelne PVE’s, die nicht im Cluster sind, auf v8.3 bringen. Den klassischen Updateweg über 6.4.6, v7, v8 möchte ich nicht unbedingt gehen (Ausfallzeiten und Altlasten) und frage mich, ob jemand schon einmal meinen Gedanken hier erfolgreich vollzogen hat. Die...
  4. C

    Pve Ceth Cluster und Snapshots

    Danke für die Erfahrungswerte. Mit dem RO habe ich nun auch verstanden. Testen werde ich Ceph demnächts. Dümmer wird man nicht davon. Die SQL Performance Werte habe ich nie gemessen, da es keine Klagen gab. Aber es sind schon ein paar mssql cobra crm DBs auf vollwertigen SQL Servern. Die 4/2...
  5. C

    Pve Ceth Cluster und Snapshots

    Danke, das habe ich und bin mit Latenz sehr zufrieden. Repliziere über zrep (async) zu einer weiteren NAS alle 5 min. Ich wollte aber mehr Sicherheit (also sync). Kann ich bestimmt mit drb machen, aber ceph hatte mich auch gereizt.
  6. C

    Pve Ceth Cluster und Snapshots

    Danke Falk für die Winweise. Mir macht nur nach dem Studium der Hinweise (https://forum.proxmox.com/threads/fabu-can-i-use-ceph-in-a-_very_-small-cluster.159671/) von Udo Sorgen, der RO Status von Ceth, wenn nicht genug Ceth Hosts vorhanden sind. Derzeit setze ich zfs over iscsi ein und bin...
  7. C

    Pve Ceth Cluster und Snapshots

    Danke, ich habe es nun auch verstanden, Dein Link weiter oben ist sehr ausführlich.
  8. C

    Pve Ceth Cluster und Snapshots

    Herzlichen Dank Udo. lese ich mir gleich mit durch. Ich verstehe aber Deine Aussage mit Redundanz nicht ganz. Bei 9 Hosts mit Ceth Cluster mit nur 3/2 OSD ist doch die Redundanz immer 3 im Normalfall. Die anderen Hosts des 9-er Cephcluster mit 3/2 liefern dann nicht nur 1/3 der Fragmente von...
  9. C

    Pve Ceth Cluster und Snapshots

    Hallo zusammen. Was ist leider wahrscheinlich nicht richtig verstanden habe möchte ich hier nachfragen: Wenn ich ein Ceth Cluster mit 9 Maschinen hätte und eine 3-er Kopie habe, werden dann alle Daten verteilt auf 9 Maschinen gespeichert, aber nur Teile davon, so dass nur der 3-fache...
  10. C

    Pve Ceth Cluster und Snapshots

    Danke für die Rückmeldung, ich schaue mir das nochmal an.
  11. C

    Pve Ceth Cluster und Snapshots

    Danke Falk, mache ich. Aber eben nvme kann ich kaum in die Breite skallieren, im Vergleich zur SATA Backplanes. U2 wäre eine Alternative, aber eben deutlich teurer und komplexer, weil ich Hotswap brauche.
  12. C

    Pve Ceth Cluster und Snapshots

    Ja, Du hast recht, Ceth skaliert auch in die Breite. Ich ahtte es nur nicht richtig verstanden und habe nachgelesen. Danke Dir!
  13. C

    Pve Ceth Cluster und Snapshots

    Ich danke Dir sehr. Ich dachte bei 9x Osd habe ich den 9 fachen Speicherbedarf? Verwechsel ich hier was? Snapshots ist super!
  14. C

    Pve Ceth Cluster und Snapshots

    Hallo zusammen, Ich möchte gerne die Ceph Performance testen, brauche aber wie bei zfs over iscsi Snapshots. Deshalb frage ich mal vorab gern hier. Gibt es bei Ceph die Möglichkeit von Snapshots, wie bei zfs. Ich habe leider nichts gefunden. Ich plane ein Pve Cluster mit 9 Nodes, 3 davon...
  15. C

    RRDC update error /var/lib/rrdcached/db/....

    Hallo zusammen, seit einiger Zeit bekomme ich auf den Hosts eines Clusters folgende Fehlermeldungen: RRD update error /var/lib/rrdcached/db/pve2-vm/ RRDC update error /var/lib/rrdcached/db/pve2-vm pve01 pmxcfs[2580]: [status] notice: RRD update error /var/lib/rrdcached/db/pve2-vm/101...