Search results

  1. P

    Ceph Quincy EC-Pool PG Upgrade von 1024 auf 2048

    Hallo & frohes Neues Jahr! Kennt jemand das Problem, dass ein (noch leeres) erasure coded Pool von ü50 OSD's nicht mehr PG's zulässt, als 1024? Die maximale PG pro OSD wurde von 250 auf 500 angepasst und wurde so übernommen. ceph daemon osd.1 config show | grep mon_max_pg_per_osd - zeigt 500...
  2. P

    Erasure coded Data-Pool mit mehreren CephFS auf Pacific um weitere, neue OSD's erweitern

    Hi Leute, habt ihr Erfahrungen mit mehreren Ceph-Filesystemen unter Pacific und der Kapazizätserweiterung eines bestehenden erasure coded Pools mit weiteren, neuen OSD's im Cluster? Gruß, PVEFan
  3. P

    GPT wird bei CreateOSD nicht übernommen

    Hallo, woran kann es liegen, wenn eine formatierte 8TB HDD inklusive GPT nach der CreateOSD über PVE-WebGUI bzw. über Terminal: pveceph createosd /dev/sdh (in dem Fall) die GPT nicht beibehält? fdisk /dev/sdh g w fdisk -l /dev/sdh Disk /dev/sdh: 7.3 TiB, 8001020755968 bytes, 15626993664...
  4. P

    Backup von RBD-Snapshots

    Hallo, gibt es eine Möglichkeit rbd snapshots einer VM auf dem pvb-server mitzusichern? Wenn ja - wie genau? Danke & Gruß!
  5. P

    Die Löschung eines Erasure-coded CephFS Pools @ Nautilus

    Hallo, habt ihr Erfahrungen mit der Löschung eines gefüllten CephFS Pools? Wie verhält sich der Cluster nach der Löschung, falls noch ein weiterer, z.b. replicated pool existiert? Wird der Cluster eventuell durch die Löschung der sehr vielen zu entfernenden PG's und Objekten im Hintergrund...
  6. P

    Datenmigration von bestehenden VZDump Backup files

    Hallo! Ist es möglich bestehende und komprimierte VZDump Backup Files von VM's (gz, lzo, zst) von einem im Netz an PVE gemounteten NFS-Storage auf einen neu im Netz angebundenen PVE-B Server zu übertragen? Was wäre ein optimaler Workflow? Danke und Gruß!