Recent content by skydiablo

  1. S

    [TUTORIAL] USB Automount

    does this also available for proxmox-backup-server?
  2. S

    second backup to an external drive

    hi, i'm running an pbs with no errors, all works fine! now i have attach an USB drive to my server, add drive via zfs and got an new datastore. all fine, but now i want to store on this new datastore the backups i have already stored on the first datastore. maybe just the latest snapshot, so the...
  3. S

    ceph MDS: corrupt sessionmap values: Corrupt entity name in sessionmap: Malformed input

    for now, i have tried this: # systemctl stop ceph-mds@pve04.service # cephfs-journal-tool --rank=cephfs:0 event recover_dentries summary # cephfs-journal-tool --rank=cephfs:0 journal reset # cephfs-table-tool all reset session # systemctl start ceph-mds@pve04.service # ceph mds repaired 0 and...
  4. S

    ceph MDS: corrupt sessionmap values: Corrupt entity name in sessionmap: Malformed input

    hi! my cephfs is broken and i can not recover the mds-daemons. yesterday i have update pve v6 to v7 and my ceph-cluster from v15 to v16 and i thought all working fine. next day (today) some of my services goes down and throw errors, so i dig into and find my cephfs is down and cannot restart...
  5. S

    [SOLVED] ZFS migration -vs- replication

    okay, solved! das ding muss wirklich überall gleich heißen! der zfs-pool muss identisch heißen und dann reicht es auch den storage nur 1x an zu legen und auf die vorbereiteten server zu limitieren. läuft nun, manchmal muss einfach nur jemand den denk-anstoß geben! vielen dank dafür! ergo, ich...
  6. S

    [SOLVED] ZFS migration -vs- replication

    da gebe ich dir recht, wollte ich auch so machen, ABER: ich lege auf meinem beiden servern meine zfs-pools an (im aktuellen fall mit unterschiedlichen namen), wenn ich jetzt ein zfs storage anlegen möchte muss ich ja den entsprechenden pool angeben. also gehe ich auf den server (GUI) pve08 mit...
  7. S

    [SOLVED] ZFS migration -vs- replication

    jetzt habe ich noch einmal alle pools gelöscht via zpool destroy local-ssd und fdisk /dev/sdX und via GUI die storages entfernt. nun habe ich auf beiden servern (pve07 + pve08) jeweils ein neuen pool (zwei SSDs via mirror) erstellt und diesmal für jeden server ein anderen pool namen verwendet...
  8. S

    [SOLVED] ZFS migration -vs- replication

    Moin, habe 2 VM-server mit identischer version: # pveversion pve-manager/6.3-3/eee5f901 (running kernel: 5.4.78-2-pve) nun habe ich dort jeweils zwei neue SSDs rein gezimmert und dort ein pool auf einem ZFS mirrored verbund definiert: # zpool status pool: local-ssd state: ONLINE scan...
  9. S

    Using CIFS/NFS as datastore

    hi! all of this approaches seems a little bit hacky, why does PBS not support remote storage by default? is this an near planned upcomming feature? regards, volker.
  10. S

    VM auf ceph storage

    okay, vielen dank für das feedback! hat mir sehr geholfen, insbesondere die einstufung dass mein reines HDD ceph cluster mit 4mb packages und ~400mb/s im speed so ganz in ordnung ist...
  11. S

    VM auf ceph storage

    also mit "writeback (unsafe)" habe ich: dd if=/dev/zero of=~/file.tmp bs=1024 count=1048756 oflag=dsync 31529+0 records in 31529+0 records out 32285696 bytes (32 MB, 31 MiB) copied, 12.0101 s, 2.7 MB/s also schonmal um einiges schicker, ist die frage wie "unsafe" ist das am ende?
  12. S

    VM auf ceph storage

    erzähl mir mehr ;) die nodes haben 64GB ram, da sollte einiges weg gebufferd werden können... ganz nach dem motto: nachts ist ja nicht so viel los, da könnte das abgearbeitet werden ;)
  13. S

    VM auf ceph storage

    hier ein paar aktuelle ergebnisse welche direkt von einem der 3 nodes aus ausgeführt habe: # ceph osd pool create scbench 128 128 pool 'scbench' created # rados bench -p scbench 10 write --no-cleanup -t 16 -b 4MB hints = 1 Maintaining 16 concurrent writes of 4194304 bytes to objects of size...
  14. S

    VM auf ceph storage

    hallo, ich habe diverse VMs auf meinem ceph storage am laufen (im grunde auch keine probleme). nun habe ich eine VM mit einer software (']SCI) welche nun probleme macht. der hersteller sagt mein storage wäre zu langsam, jetzt bin ich mir nicht ganz sicher was ich davon halten soll. der...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!