Recent content by PVEfan

  1. P

    Ceph Quincy EC-Pool PG Upgrade von 1024 auf 2048

    Hallo & frohes Neues Jahr! Kennt jemand das Problem, dass ein (noch leeres) erasure coded Pool von ü50 OSD's nicht mehr PG's zulässt, als 1024? Die maximale PG pro OSD wurde von 250 auf 500 angepasst und wurde so übernommen. ceph daemon osd.1 config show | grep mon_max_pg_per_osd - zeigt 500...
  2. P

    Erasure coded Data-Pool mit mehreren CephFS auf Pacific um weitere, neue OSD's erweitern

    nur welcher Parameter eben... ceph osd crush rule dump [ { "rule_id": 0, "rule_name": "replicated_rule", "ruleset": 0, "type": 1, "min_size": 1, "max_size": 10, "steps": [ { "op": "take"...
  3. P

    Erasure coded Data-Pool mit mehreren CephFS auf Pacific um weitere, neue OSD's erweitern

    Hi Gurubert, leider nicht ganz, muss aber zugeben, ich habe es noch nicht auf einem PVE-Cluster getestet, habe nur alles nativ aufgesetzt. Die genauere Beschreibung findest Du / ihr hier...
  4. P

    Erasure coded Data-Pool mit mehreren CephFS auf Pacific um weitere, neue OSD's erweitern

    Hi Leute, habt ihr Erfahrungen mit mehreren Ceph-Filesystemen unter Pacific und der Kapazizätserweiterung eines bestehenden erasure coded Pools mit weiteren, neuen OSD's im Cluster? Gruß, PVEFan
  5. P

    GPT wird bei CreateOSD nicht übernommen

    Hi jsterr, danke für die Info und den Link zum nachlesen! Schönes Wochenende! PVEFan
  6. P

    GPT wird bei CreateOSD nicht übernommen

    Hallo, woran kann es liegen, wenn eine formatierte 8TB HDD inklusive GPT nach der CreateOSD über PVE-WebGUI bzw. über Terminal: pveceph createosd /dev/sdh (in dem Fall) die GPT nicht beibehält? fdisk /dev/sdh g w fdisk -l /dev/sdh Disk /dev/sdh: 7.3 TiB, 8001020755968 bytes, 15626993664...
  7. P

    Backup von RBD-Snapshots

    Danke für die Antwort! Viele Grüße!
  8. P

    Die Löschung eines Erasure-coded CephFS Pools @ Nautilus

    ..aus eigener Erfahrung würde ich empfehlen alle Objekte in einem EC-Pool zuvor entfernen, bevor dieser aus dem Cluster entfernt wird. Die Entfernung eines EC-Pools mit ca. 30M Objekten löste eine Hintergrundaktivität aus, die die Nutzung eines parallelen RBD-Pools im Cluster zum Stillstand...
  9. P

    Backup von RBD-Snapshots

    Hallo, gibt es eine Möglichkeit rbd snapshots einer VM auf dem pvb-server mitzusichern? Wenn ja - wie genau? Danke & Gruß!
  10. P

    Die Löschung eines Erasure-coded CephFS Pools @ Nautilus

    Hallo, habt ihr Erfahrungen mit der Löschung eines gefüllten CephFS Pools? Wie verhält sich der Cluster nach der Löschung, falls noch ein weiterer, z.b. replicated pool existiert? Wird der Cluster eventuell durch die Löschung der sehr vielen zu entfernenden PG's und Objekten im Hintergrund...
  11. P

    Datenmigration von bestehenden VZDump Backup files

    Hi, ja, das war auch mein Gedanke. Ich dachte, es gäbe vielleicht eine bessere Lösung. So muss ich allerdings zwei Netzwerk-Mount's Typen auf dem PBE-B halten - NFS Storage und Proxmox Backup Server / Datastore. Danke & Gruß!
  12. P

    Datenmigration von bestehenden VZDump Backup files

    Hallo! Ist es möglich bestehende und komprimierte VZDump Backup Files von VM's (gz, lzo, zst) von einem im Netz an PVE gemounteten NFS-Storage auf einen neu im Netz angebundenen PVE-B Server zu übertragen? Was wäre ein optimaler Workflow? Danke und Gruß!