Search results

  1. C

    [SOLVED] Migrationsprobleme

    Hallo, das ist ja der Notbehelf mit dem manuellen Verschieben. Es scheint so das die Migration über die WebGUI nicht funktioniert (abbricht, gleich beim Beginn), wenn mehr als eine Replikation angelegt ist (also zu 2 Nodes).
  2. C

    [SOLVED] Migrationsprobleme

    Hallo zusammen, schon seit längerer Zeit beobachte ich folgendes: Ich habe in einem Proxmox Cluster bei einer VM zwei Replikationen (bei Node1) zu unterschiedlichen Nodes (Node2 und Node3) laufen. Das funktioniert. Die Migration über die WebGUI scheiert meistens bei mehr als einer...
  3. C

    sekundärer PBS - richtige ZFS Storage Einstellungen

    Vielen Dank für Deine Hilfe und die Quelle. Ich prüfe das heute. Aber wo muss ich das ausführen? auf dem primären PBS oder dem Sekundären PBS? Und warum sollte dies bei der Replikation per Pull vom primären PBS beim sekundären PBS denn relevant sein? Sind nicht alle Chunks, die vom primären PBS...
  4. C

    sekundärer PBS - richtige ZFS Storage Einstellungen

    Danke, aber ich bin nach wie vor an der Antwort zu "Welche recordsize einstellen?" Interessiert. Das Performance Hauptproblem habe ich ja selbst gelöst und hier kommuniziert. Ich würde mich sehr über eine Antwort, vor allem gern auch vom Hersteller, freuen.
  5. C

    sekundärer PBS - richtige ZFS Storage Einstellungen

    Danke für Deine Antwort. Die 6x SATAIII Karte hat einen PCIex4 Anschluss, ist aber laut Datenblatt mit x2 angeschlossen. Selbst das reicht bei PCIe 3.0 für ca. 2Gbyte/s, abzüglich 20% Decodierung (10Bit/Byte) bleiben noch 1,6GByte/s, geteilt durch 6x HDG ist dann ca. 250MByte/s. Das reicht also...
  6. C

    sekundärer PBS - richtige ZFS Storage Einstellungen

    Problem mit der ungelichen Verteilung habe ich gelöst, es lag nicht am PBS v4 mit dem neuen OpenZFS, sondern am Controller, ich habe einen 8-Port LSI IT-Mode für die HDDs eingebaut und habe das Problem erledigt damit. ZFSRAID 21.1T 125T 226...
  7. C

    sekundärer PBS - richtige ZFS Storage Einstellungen

    Hallo zusammen, ich bin auf der Suche nach den richtigen ZFS Flags beim Datastore um eine maximale Sync Rate zum Slave-PBS zu erzielen. Derzeit erziele ich nicht mehr als 300MByte/s Master PBS v3, 32x SAS Stripe-Mirror mit Special Devices NVME Mirror recordsize=1M / sync=disabled /...
  8. C

    Debian ZFS Slave-Speichersystem (zrep Replikate) zum PBS sichern

    Danke Falk für die Antwort. Ich stimme Dir voll zu, wenn der PBS SPeicher aus SSD/NVMe besteht und auch alle VMs ausschließlich SSD/NVMe sind. Leider ist dies nicht bei mir so und auch nicht änderbar, wegen den Kosten bei hohem Backupplatzbedarf. Die von mir angestrebte Lösung (siehe oben)...
  9. C

    Debian ZFS Slave-Speichersystem (zrep Replikate) zum PBS sichern

    Hallo Chris, ich teste das und berichte. Danke für die Hilfe.
  10. C

    Debian ZFS Slave-Speichersystem (zrep Replikate) zum PBS sichern

    Hallo, ja das Cluster besteht aus mehreren PVEs. Das Ziel ist, keine Belastungen der eigentlichen ZVOLs zu erzeugen, also den Job eben nicht auf dem PVE laufen zu lassen (zfs over iScsi Anbindung) und auch nicht auf dem zfs over iscsi Target die Last zu erzeugen. Hier soll ausschließlich vom...
  11. C

    Debian ZFS Slave-Speichersystem (zrep Replikate) zum PBS sichern

    Hallo zusammen, ich brauche eure Ideen und würde mich sehr freuen Hilfe bekommen zu können. Ich habe ein Debian ZFS Master-Speichersystem (zfs over iSCSI Target) und ein Debian Slave-Speichersystem (zfs over iSCSI Target), welches periodisch vom ZFS Master-Speichersystem per zrep die Proxmox...
  12. C

    Möglicher abweichender Weg zum Update einzelner PVE's (kein Cluster) von v6.1 auf v8.3 ?

    Ich danke euch beiden. Ich probiere das und berichte hier!
  13. C

    Möglicher abweichender Weg zum Update einzelner PVE's (kein Cluster) von v6.1 auf v8.3 ?

    Evtl. können mir die Jungs von Proxmox hier kurz antworten. Viele Grüße.
  14. C

    Möglicher abweichender Weg zum Update einzelner PVE's (kein Cluster) von v6.1 auf v8.3 ?

    Hallo zusammen, ich möchte einzelne PVE’s, die nicht im Cluster sind, auf v8.3 bringen. Den klassischen Updateweg über 6.4.6, v7, v8 möchte ich nicht unbedingt gehen (Ausfallzeiten und Altlasten) und frage mich, ob jemand schon einmal meinen Gedanken hier erfolgreich vollzogen hat. Die...
  15. C

    Pve Ceth Cluster und Snapshots

    Danke für die Erfahrungswerte. Mit dem RO habe ich nun auch verstanden. Testen werde ich Ceph demnächts. Dümmer wird man nicht davon. Die SQL Performance Werte habe ich nie gemessen, da es keine Klagen gab. Aber es sind schon ein paar mssql cobra crm DBs auf vollwertigen SQL Servern. Die 4/2...
  16. C

    Pve Ceth Cluster und Snapshots

    Danke, das habe ich und bin mit Latenz sehr zufrieden. Repliziere über zrep (async) zu einer weiteren NAS alle 5 min. Ich wollte aber mehr Sicherheit (also sync). Kann ich bestimmt mit drb machen, aber ceph hatte mich auch gereizt.
  17. C

    Pve Ceth Cluster und Snapshots

    Danke Falk für die Winweise. Mir macht nur nach dem Studium der Hinweise (https://forum.proxmox.com/threads/fabu-can-i-use-ceph-in-a-_very_-small-cluster.159671/) von Udo Sorgen, der RO Status von Ceth, wenn nicht genug Ceth Hosts vorhanden sind. Derzeit setze ich zfs over iscsi ein und bin...
  18. C

    Pve Ceth Cluster und Snapshots

    Danke, ich habe es nun auch verstanden, Dein Link weiter oben ist sehr ausführlich.
  19. C

    Pve Ceth Cluster und Snapshots

    Herzlichen Dank Udo. lese ich mir gleich mit durch. Ich verstehe aber Deine Aussage mit Redundanz nicht ganz. Bei 9 Hosts mit Ceth Cluster mit nur 3/2 OSD ist doch die Redundanz immer 3 im Normalfall. Die anderen Hosts des 9-er Cephcluster mit 3/2 liefern dann nicht nur 1/3 der Fragmente von...
  20. C

    Pve Ceth Cluster und Snapshots

    Hallo zusammen. Was ist leider wahrscheinlich nicht richtig verstanden habe möchte ich hier nachfragen: Wenn ich ein Ceth Cluster mit 9 Maschinen hätte und eine 3-er Kopie habe, werden dann alle Daten verteilt auf 9 Maschinen gespeichert, aber nur Teile davon, so dass nur der 3-fache...