hi,
i'm running an pbs with no errors, all works fine! now i have attach an USB drive to my server, add drive via zfs and got an new datastore. all fine, but now i want to store on this new datastore the backups i have already stored on the first datastore. maybe just the latest snapshot, so the...
hi!
my cephfs is broken and i can not recover the mds-daemons. yesterday i have update pve v6 to v7 and my ceph-cluster from v15 to v16 and i thought all working fine. next day (today) some of my services goes down and throw errors, so i dig into and find my cephfs is down and cannot restart...
okay, solved! das ding muss wirklich überall gleich heißen! der zfs-pool muss identisch heißen und dann reicht es auch den storage nur 1x an zu legen und auf die vorbereiteten server zu limitieren. läuft nun, manchmal muss einfach nur jemand den denk-anstoß geben! vielen dank dafür! ergo, ich...
da gebe ich dir recht, wollte ich auch so machen, ABER:
ich lege auf meinem beiden servern meine zfs-pools an (im aktuellen fall mit unterschiedlichen namen), wenn ich jetzt ein zfs storage anlegen möchte muss ich ja den entsprechenden pool angeben. also gehe ich auf den server (GUI) pve08 mit...
jetzt habe ich noch einmal alle pools gelöscht via zpool destroy local-ssd und fdisk /dev/sdX und via GUI die storages entfernt. nun habe ich auf beiden servern (pve07 + pve08) jeweils ein neuen pool (zwei SSDs via mirror) erstellt und diesmal für jeden server ein anderen pool namen verwendet...
Moin,
habe 2 VM-server mit identischer version:
# pveversion
pve-manager/6.3-3/eee5f901 (running kernel: 5.4.78-2-pve)
nun habe ich dort jeweils zwei neue SSDs rein gezimmert und dort ein pool auf einem ZFS mirrored verbund definiert:
# zpool status
pool: local-ssd
state: ONLINE
scan...
hi!
all of this approaches seems a little bit hacky, why does PBS not support remote storage by default? is this an near planned upcomming feature?
regards, volker.
okay, vielen dank für das feedback! hat mir sehr geholfen, insbesondere die einstufung dass mein reines HDD ceph cluster mit 4mb packages und ~400mb/s im speed so ganz in ordnung ist...
also mit "writeback (unsafe)" habe ich:
dd if=/dev/zero of=~/file.tmp bs=1024 count=1048756 oflag=dsync
31529+0 records in
31529+0 records out
32285696 bytes (32 MB, 31 MiB) copied, 12.0101 s, 2.7 MB/s
also schonmal um einiges schicker, ist die frage wie "unsafe" ist das am ende?
erzähl mir mehr ;) die nodes haben 64GB ram, da sollte einiges weg gebufferd werden können... ganz nach dem motto: nachts ist ja nicht so viel los, da könnte das abgearbeitet werden ;)
hier ein paar aktuelle ergebnisse welche direkt von einem der 3 nodes aus ausgeführt habe:
# ceph osd pool create scbench 128 128
pool 'scbench' created
# rados bench -p scbench 10 write --no-cleanup -t 16 -b 4MB
hints = 1
Maintaining 16 concurrent writes of 4194304 bytes to objects of size...
hallo,
ich habe diverse VMs auf meinem ceph storage am laufen (im grunde auch keine probleme). nun habe ich eine VM mit einer software (']SCI) welche nun probleme macht. der hersteller sagt mein storage wäre zu langsam, jetzt bin ich mir nicht ganz sicher was ich davon halten soll. der...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.