Search results

  1. herzkerl

    Ceph Object Gateway (RadosGW), multi-part uploads and ETag

    We'd been having issues with a particular (Synology) Hyper Backup quite some time. Synology support analyzed the log files and told us that there's no ETag returned after a multi-part upload: 2023-11-21T13:20:55+01:00 NAS img_worker[20149]: (20149) [err] transfer_s3.cpp:355 ETag is empty...
  2. herzkerl

    Erasure code and min/max in Proxmox

    I set up an erasure coded pool via Ceph Dashboard, and changed the rule later by manually editing the CRUSH map: rule erasurecode { id 6 type erasure step set_chooseleaf_tries 5 step set_choose_tries 100 step take default class hdd-cached step choose indep 3 type host...
  3. herzkerl

    Ceph block.db on SSD mirror (md-raid, lvm mirror or ZFS mirror)

    I want to set up a mirror consisting of two SSDs, to use that as a DB/WAL device for several (HDD) OSD's. The system doesn't have a hardware RAID controller, so basically there's three options (I guess): md raid or ZFS mirror — but /dev/zd0 or /dev/md127 are not accepted by pveceph create LVM...
  4. herzkerl

    [SOLVED] Ceph block.db auf SSD-Mirror (md-raid, lvm mirror, ZFS mirror)

    Ich möchte einen Mirror/RAID1 aus zwei SSDS erstellen, um darauf dann die block.db von einigen (HDD-)OSDs abzulegen. Hardware-RAID ist (natürlich) nicht vorhanden, d.h. ich sehe hier drei Möglichkeiten: ZFS Mirror – jedoch wird /dev/zd0 nicht von pveceph create akzeptiert MD Mirror, jedoch...
  5. herzkerl

    Migrations to one node very slow

    I'm sometimes seeing migrations slow down for some reason. This time I turned on maintenance mode on one node—the first few VMs migrated within minutes (avg. speed around 130 MiB/s), but there are other migrations that hover around 50-200 KiB/s. Any ideas what could be the culprit here? The...
  6. herzkerl

    sync group filed - connection closed because of a broken pipe

    Starting a while ago we've had some issues with syncing some backups to our offsite PBS. Upgrading to v3 didn't change that, unfortunately. The task would fail with the following message: sync group vm/208 failed - connection closed because of a broken pipe That only happens for about 50% of...
  7. herzkerl

    Ceph OSD block.db on NVMe / Sizing recommendations and usage

    Dear community, the HDD pool on our 3 node Ceph cluster was quite slow, so we recreated the OSDs with block.db on NVMe drives (Enterprise, Samsung PM983/PM9A3). The sizing recommendations in the Ceph documentation recommend 4% to 6% of 'block' size: block.db is either 3.43% or around 6%...
  8. herzkerl

    Tatsächliche Größe einer VM-Disk auf Ceph

    Hallo zusammen, wie kann ich die tatsächliche Größe einer auf Ceph befindlichen VM-Disk ermitteln? In der 108.conf ist die virtuelle Disk auf 25 TB angelegt und discard=on: scsi1: ceph-hdd-size-2:vm-108-disk-0,backup=0,discard=on,iothread=1,size=25480G Die 25 TB sehe ich auch hier...
  9. herzkerl

    Feature Request: Ceph Object Gateway Support (via UI)

    I‘d love to use S3 via Ceph! Not having to set up another server for S3-compatible storage (e.g. minIO) would be a nice benefit. I know there’s some unofficial documentation (mainly blog posts that are a few years old)—but having that right within the Proxmox web interface/CLI would be...
  10. herzkerl

    sync group failed - authentication failed - invalid ticket - expired

    Hallo zusammen, leider habe ich nun bei einem Sync-Job (wir syncen derzeit von drei Kunden) auch den im Titel genannten Fehler. Log siehe unten. Im Forum gibt es einige Threads zu diesem Fehler, jedoch beziehen sich die meisten auf einen Bug, der in 2020 gefixt wurde, und andere blieben...
  11. herzkerl

    Exchange log files

    Is there any way to run a post backup command/script within a Windows Server running Exchange to truncate the log files after a successful backup?
  12. herzkerl

    ZFS scrubbing bei virtuellem PBS

    Wie sinnvoll ist es, das ZFS scrubbing in einem virtualisierten PBS (auf Proxmox VE – in unserem Fall via Ceph, bei unseren Kunden via ZFS) in der VM ebenfalls laufen zu lassen? Da sollte doch von "außen" schon alles soweit passen, dass man sich die Ressourcen dafür sparen kann, oder irre ich mich?
  13. herzkerl

    [SOLVED] Windows Server 2019 boot environment and virtIO

    I just had a Windows Server 2019 reboot into "automatic startup repair", which it couldn't perform because it wasn't able to find the drive(s). I then changed the disk type to scsi and repaired the disk manually—CLI, chkdsk /f C:—which did work. Changed the disk back to virtIO and Windows was...
  14. herzkerl

    Virtuelle Disks unterschiedlich häufig sichern

    Hallo zusammen, wir haben bei einer Fileserver-VM eines Kunden bisher zwei Backups gefahren: • Ein imagebasiertes Backup der gesamten VM um 6 und 18 Uhr, täglich – bisher mit Active Backup for Business, nun mit Proxmox Backup Server; sowie • ein dateibasiertes Backup der Dateien unter D:\Daten...
  15. herzkerl

    Cloud-init ohne package upgrade?

    Hallo liebe Community, ist es möglich, trotz Verwendung von eurer Cloud-init-Implementierung dort die automatischen Paketupdates zu deaktivieren? Ich habe versucht, in der VM die user-data.txt zu bearbeiten, aber nach einem Neustart stand dort wieder package_upgrade: true
  16. herzkerl

    Berechnung des benötigten Speichers je Namespace

    Da wir von unseren Kunden Offsite-Backups via Proxmox Backup Server ziehen wäre es super, wenn wir den benötigten Speicherplatz je Namespace sehen könnten – also die Größe der für alle Backups in einem Namespace benötigten Blöcke inkl. Metadaten (falls möglich). Im Moment müssten wir einen...
  17. herzkerl

    Ceph-IP laut ARP-Tabelle auch bei vmbr0

    Hallo zusammen, mein UniFi-Switch informierte mich darüber, dass IP-Adressen doppelt vergeben wären und zeigte ähnliche MAC-Adressen an. Nun habe ich testweise auf 2 der 5 der Server die ARP-Tabelle gecheckt und gesehen, dass die für Ceph verwendeten IP-Adressen sowohl beim für Ceph verwendeten...
  18. herzkerl

    Best practice bei Ceph und zwei Switches

    Hallo zusammen, angenommen ich habe ein Cluster aus 5 Servern und nutze zwei Switche, die nicht ’stackable’ sind: Welche Netzwerkkonfiguration wäre hier ‚best practice‘? Ich habe einiges versucht im Testlab, hatte aber bisher keinen Erfolg. Danke im Voraus!
  19. herzkerl

    [SOLVED] Can’t delete orphaned disk from Ceph

    Dear community, I can’t remove a disk image from our Ceph storage despite the image not being used by the VM. And yes, it does say the same in the config file. scsi0: ceph-nvme:vm-109-disk-0,discard=on,size=50G,ssd=1 scsi1: ceph-ssd-ec:vm-109-disk-0,backup=0,iothread=1,size=5T,ssd=1 scsi2...
  20. herzkerl

    Umstieg von ZFS zu Ceph

    Hallo zusammen, ursprünglich hatte ich meinen Cluster via ZFS aufgesetzt – nun würde ich gerne zumindest einen Teil der SSDs für Ceph nutzen. Die Server nutzen allesamt einen einen striped mirror (RAID 10-Äquiv.), auf dem jedoch auch Proxmox selbst liegt. Da ich die Disks für Ceph ja komplett...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!