Search results

  1. herzkerl

    wearout per Console abfragen?

    Proxmox zeigt einen 'Wearout' an (Host > Disks) von 77%. Warum ich davon nun ein Bild posten soll, aus dem du nichts anderes lesen könntest als genau diesen Wert, erschließt sich mir nicht. Das mag ja sein, aber: Wieso zeigt Proxmox dann einen Wert an? Ich möchte ja nur wissen, woher er kommt...
  2. herzkerl

    wearout per Console abfragen?

    Meine Frage war die gleiche wie die von OP, siehe 3. Beitrag: 15,5TB von 100TB sind 15,5% – wieso zeigt die Proxmox-UI dann ein Wearout von 77% an? (Vielleicht kann das ja jemand aus dem Team beantworten...)
  3. herzkerl

    wearout per Console abfragen?

    Der erste Wert ist mit 512 (logical block size), der zweite mit 4096 (physical block size) multipliziert. Das ist mir klar, darum geht es ja gar nicht... Die Frage ist ja, wieso Proxmox in der UI ein Wearout von 77% anzeigt.
  4. herzkerl

    wearout per Console abfragen?

    Hallo zusammen, in unserem aktuellen Cluster setzen wir für Proxmox (Boot) auch MX500 ein. Das Modell mit 250GB hat eine TBW-Spezifikation von 100TB. Irgendwie passt hier Total_LBAs_Written nicht zum Wearout (jeweils am Ende der Zeile in %) – oder verstehe ich das falsch? (Die beiden Werte in...
  5. herzkerl

    Proxmox VE 8.1 released!

    Your guide for upgrading Ceph from Quincy to Reef still says there’s no enterprise repo, you might want to update that :)
  6. herzkerl

    Migrations to one node very slow

    I'm sometimes seeing migrations slow down for some reason. This time I turned on maintenance mode on one node—the first few VMs migrated within minutes (avg. speed around 130 MiB/s), but there are other migrations that hover around 50-200 KiB/s. Any ideas what could be the culprit here? The...
  7. herzkerl

    ceph warning post upgrade to v8

    To summarize: Upgrading to Proxmox v8 works without any issues regarding Ceph itself—only the Ceph dashboard (which I also enabled for a simple overview of RadosGW) doesn't work after upgrading. Is that correct?
  8. herzkerl

    Remote sync fails with 502 Bad gateway

    I'm having the same issue. Listing the backups works without any issues, writing a new one shows 502. The only difference I found in HAproxy log is that during backups, there are two slashes at the beginning of the path: Nov 3 17:43:49 fw haproxy[73209]: xx.xx.xx.xx:51834...
  9. herzkerl

    [SOLVED] PVE 8.0 Kernel crashes on Hetzner server

    I installed via installimage: https://forum.proxmox.com/threads/install-pve-pbs-from-iso-on-hetzner-without-kvm-tutorial.94464/post-591024
  10. herzkerl

    sync group filed - connection closed because of a broken pipe

    Starting a while ago we've had some issues with syncing some backups to our offsite PBS. Upgrading to v3 didn't change that, unfortunately. The task would fail with the following message: sync group vm/208 failed - connection closed because of a broken pipe That only happens for about 50% of...
  11. herzkerl

    Install PVE/PBS from ISO on Hetzner without KVM (Tutorial)

    Also, Hetzner has three Proxmox versions in their installimage tool.
  12. herzkerl

    [SOLVED] PVE 8.0 Kernel crashes on Hetzner server

    First, I followed the Proxmox Wiki instructions: echo "deb [arch=amd64] http://download.proxmox.com/debian/pve bullseye pve-no-subscription" > /etc/apt/sources.list.d/pve-install-repo.list wget https://enterprise.proxmox.com/debian/proxmox-release-bullseye.gpg -O...
  13. herzkerl

    [SOLVED] PVE 8.0 Kernel crashes on Hetzner server

    Did not work for me using the old Kernel. My AX41 still won't boot after installing Proxmox kernel.
  14. herzkerl

    Ceph OSD block.db on NVMe / Sizing recommendations and usage

    We've been using RadosGW for almost two months, as well. The default RGW pool is around 70 TB in size. (replica=3) Meaning, 4-6% of e.g. 16.37 TiB or 12.73 TiB would be way too much in both cases (RBD/RGW workloads)? Without consideration of the size of the block device/HDD?
  15. herzkerl

    Ceph OSD block.db on NVMe / Sizing recommendations and usage

    Dear community, the HDD pool on our 3 node Ceph cluster was quite slow, so we recreated the OSDs with block.db on NVMe drives (Enterprise, Samsung PM983/PM9A3). The sizing recommendations in the Ceph documentation recommend 4% to 6% of 'block' size: block.db is either 3.43% or around 6%...
  16. herzkerl

    Tatsächliche Größe einer VM-Disk auf Ceph

    Habe ich angeworfen, hat sich gebessert. Vorhin waren nur noch 21.4 TB provisioniert. Da ich die Disk aber sowieso in ein paar Tagen löschen werde – ziehe die Daten gerade auf Ceph 'nativ' um (RadosGW) – habe ich den Vorgang nun abgebrochen. Welche Dinge gibt es denn bzgl. Trim zu beachten...
  17. herzkerl

    Tatsächliche Größe einer VM-Disk auf Ceph

    Hallo zusammen, wie kann ich die tatsächliche Größe einer auf Ceph befindlichen VM-Disk ermitteln? In der 108.conf ist die virtuelle Disk auf 25 TB angelegt und discard=on: scsi1: ceph-hdd-size-2:vm-108-disk-0,backup=0,discard=on,iothread=1,size=25480G Die 25 TB sehe ich auch hier...
  18. herzkerl

    Proxmox Backup Server 3.0 available

    I'm pretty sure there had been a transfer-last option before upgrading to v3.0 — I've been using it for a few weeks, but haven't upgraded until a few minutes ago. What am I missing? (Maybe, because I'm using no-subscription repo?)
  19. herzkerl

    Host Ceph Dashboard on different network to Monitor

    Hi atjb, I hope my short documentation might be of help. I think the fourth line – ceph config-key set – might do it :) apt install ceph-mgr-dashboard ceph mgr module enable dashboard ceph dashboard ac-user-create cephdash [password] administrator ceph config-key set mgr/dashboard/server_addr...
  20. herzkerl

    sync group failed - authentication failed - invalid ticket - expired

    Zur Info: Es ist wieder aufgetreten, und diesmal nicht kurz nach 22 Uhr – somit glaube ich, dass der andere Sync-Job damit nicht direkt etwas zu tun hat. 2023-07-09T20:00:00+02:00: Starting datastore sync job 'xyz:nas:kunden-xyz::s-2e681556-87b9' 2023-07-09T20:00:00+02:00: task triggered by...