Search results

  1. herzkerl

    Ceph-IP laut ARP-Tabelle auch bei vmbr0

    Hallo zusammen, mein UniFi-Switch informierte mich darüber, dass IP-Adressen doppelt vergeben wären und zeigte ähnliche MAC-Adressen an. Nun habe ich testweise auf 2 der 5 der Server die ARP-Tabelle gecheckt und gesehen, dass die für Ceph verwendeten IP-Adressen sowohl beim für Ceph verwendeten...
  2. herzkerl

    Best practice bei Ceph und zwei Switches

    Hallo zusammen, angenommen ich habe ein Cluster aus 5 Servern und nutze zwei Switche, die nicht ’stackable’ sind: Welche Netzwerkkonfiguration wäre hier ‚best practice‘? Ich habe einiges versucht im Testlab, hatte aber bisher keinen Erfolg. Danke im Voraus!
  3. herzkerl

    [SOLVED] Can’t delete orphaned disk from Ceph

    Thank you, pvesm free ceph-hdd-size-2:vm-109-disk-0 worked :)
  4. herzkerl

    [SOLVED] Can’t delete orphaned disk from Ceph

    I tried that, but it didn’t get added to the VM. Anything else I could try?
  5. herzkerl

    [SOLVED] Can’t delete orphaned disk from Ceph

    Sorry, there was a screenshot missing. I was referring to the disk image vm-109-disk-0 which still exists on ceph-hdd-size-2. I’m not sure, but it looks life I moved it to ceph-ssd-ec in the past and forgot to delete it.
  6. herzkerl

    [SOLVED] Can’t delete orphaned disk from Ceph

    Dear community, I can’t remove a disk image from our Ceph storage despite the image not being used by the VM. And yes, it does say the same in the config file. scsi0: ceph-nvme:vm-109-disk-0,discard=on,size=50G,ssd=1 scsi1: ceph-ssd-ec:vm-109-disk-0,backup=0,iothread=1,size=5T,ssd=1 scsi2...
  7. herzkerl

    Ceph cluster timeout

    I’m having the same problem—started today after a reboot of one node. Did you fix it yet?
  8. herzkerl

    pvestatd [2399]: got timeout

    I have the same problem since a reboot today.
  9. herzkerl

    Proxmox VE 7.2 released!

    In case no one mentioned it yet: There's a typo in the docs (pceveph instead of pveceph)
  10. herzkerl

    Migration ESX -> PVE, extrem langsame VM-Performance

    Kurzes Recap nochmal für mich: Du hast einen Teil deines CePH auf den langsamsten Consumer-SSDs laufen und dennoch kein Problem mit IOPS? Denke gerade darüber nach, meine Server aufzurüsten, würde aber gerne für weniger Anwendungsfälle mit geringerer Performance (z.B. als Storage für Nextcloud)...
  11. herzkerl

    Umstieg von ZFS zu Ceph

    Die NVMe sind ca. 2 TB, die SATA-SSDs sind 1 TB groß. Das OS darf gerne auf den SATA-SSDs bleiben – verstehe ich dich richtig, dass es theoretisch gehen müsste, ohne Neuinstallation diese SATA-SSDs (mit dem OS drauf) ebenfalls für Ceph zu verwenden?
  12. herzkerl

    Umstieg von ZFS zu Ceph

    Danke für den Hinweis – habe aktuell je Server 2 neue NVMe-SSDs und werde bei Gelegenheit dann mal auf 3 gehen (mindestens). Bei den anderen SSDs, auf denen derzeit auch das OS läuft, sprechen wir über jeweils 4 Stück je Server (SATA). Idealerweise würde ich die gerne alle mit Ceph nutzen, aber...
  13. herzkerl

    Umstieg von ZFS zu Ceph

    Hallo zusammen, ursprünglich hatte ich meinen Cluster via ZFS aufgesetzt – nun würde ich gerne zumindest einen Teil der SSDs für Ceph nutzen. Die Server nutzen allesamt einen einen striped mirror (RAID 10-Äquiv.), auf dem jedoch auch Proxmox selbst liegt. Da ich die Disks für Ceph ja komplett...
  14. herzkerl

    MegaRAID Personality Mode

    Ist das nicht das, was ich im Eingangspost beschrieben hatte und wovon @dcsapak abgeraten hat?
  15. herzkerl

    MegaRAID Personality Mode

    Vielen Dank! Hast du zufällig einen Link zu einer Anleitung?
  16. herzkerl

    MegaRAID Personality Mode

    Danke für die schnelle Rückmeldung! Das heißt, wenn ich den Controller in den IT-Mode bringe, habe ich euren Segen?
  17. herzkerl

    MegaRAID Personality Mode

    Hallo zusammen, ein Kunde möchte von einem einzelnen ESXi-Host auf ein Proxmox-Cluster aus zwei Maschinen wechseln und ZFS Replication nutzen. In den neuen Server kommt natürlich direkt ein HBA – im bisherigen Gerät ist jedoch ein RAID-Controller verbaut: LSI MegaRAID 9361-8i. Dieser...
  18. herzkerl

    CEPH - TIMEOUT

    Seems like a firewall issue on datacenter level.
  19. herzkerl

    [SOLVED] possible bug proxmox 7, active-backup bond with VLAN aware bridge causes no internet

    Upgraded my R630's as well today, ran into the same problem, solved it (for now) by removing the two lines regarding VLAN: bridge-vlan-aware yes bridge-vids 2-4094 It's not a big issue since I haven't been using VLANs yet—but I'd love to know what's wrong there. PS: No bonds on vmbr0, not...
  20. herzkerl

    [SOLVED] Standard-Partitionierung nach Installation bei ZFS-Mirror unterschiedlich

    Ja, damit hast du wohl Recht... Danke dir dennoch!