Recent content by MLOrion

  1. MLOrion

    [SOLVED] mounting 'drive-scsiXX.img.fidx/part/1' failed: all mounts failed or no supported file system (400)

    i have the same error, but the org. Volume is not bitlocker enabled It is a 4TB volume Windows server File Server [2025-09-04T12:27:17.308Z ERROR proxmox_rest_server::rest] GET /api2/json/list?path=ZHJpdmUtdmlydGlvMS5pbWcuZmlkeC9wYXJ0LzI%3D: 400 Bad Request: [client 0.0.0.0:807] mounting...
  2. MLOrion

    Proxmox Ceph Cluster sizing

    @Falk R. ich habe Veeam nur für die Migration der vm's genutzt. 1. vmware Tools deinstalliert. 2. qemu Tools installiert. 3. vm runtergefahren. 4. Vollbackup erstellt. 5. vm mit Veeam auf Proxmox widerhergestellt. lief wunderbar. Der Cluster läuft seit 3 Wochen ohne Probleme. Ein Frage...
  3. MLOrion

    Proxmox Ceph Cluster sizing

    es kann so einfach sein.... ich habe doch Veeam ;-) Man wie einfach ist das bitte...
  4. MLOrion

    Proxmox Ceph Cluster sizing

    ich habe beim Import nach dieser Anleitung vmware vm's diesen Fehler unable to parse volume ID wenn ich versuche eine vmdk von einem nfs share zu importieren. qm disk import {target VMID} {vmdk file} {target storage} sowohl der ESX Host als auch Proxmox befinden sich im gleichen Netz und...
  5. MLOrion

    Proxmox Ceph Cluster sizing

    nachdem ich mich wieder an die Linux bridge Nomenklatur erinnert habe, läuft der Cluster. Jetzt kommt die Feinarbeit. Danke für die Unterstützung
  6. MLOrion

    Proxmox Ceph Cluster sizing

    @Falk R. Guten Morgen, ja ich weiß auch nicht warum ich die Idee mit dem Broadcast hatte. ich mache es über 2. Interfaces mit je einer IP Das Limit liegt wohl bei 8 sowei ich eglesen habe
  7. MLOrion

    Proxmox Ceph Cluster sizing

    noch eine Frage zu de Thema corosync. jeder Server hat 6 SFP+ Links. 1x LACP Link mit VLans für Migration Cluster Backup (PBS) 1x LACP Link mit VLans für vm's die zwei übrigen würde ich für den Corosync nutzen wollen. LACP solll ja nicht die beste Idee für Corosync sein. also folgende...
  8. MLOrion

    Proxmox Ceph Cluster sizing

    ja ist geplant und ich werde von ALB auf active / passive failover gehen. NAch dem Motto "keep it simple"
  9. MLOrion

    Proxmox Ceph Cluster sizing

    Ich tue mich irgendwie mit der Logic vom Mikrotik schwer. bonds und bridges kann ich... aber mir erschließt sich die Anleitung von Mikrotik nicht.
  10. MLOrion

    Proxmox Ceph Cluster sizing

    @Falk R. Die Mlag Doku für den CRS520-4XS-16XQ-RM habe ich nicht gefunden und das was ich gefunden habe machte für mich keinen Sinn. Ich bin aus der Mellanox / HP Switch Welt. Wird so erstmal getestet...
  11. MLOrion

    Proxmox Ceph Cluster sizing

    Ja sind zwei CRS520-4XS-16XQ-RM LACP zwischen den beiden Switchen und die Ports für Ceph mit balance-alb und je ein Port pro Switch. Also pur Layer 2 Die sind auch schon eingerichtet, warte nur noch auf die Server. +--------------------+ 2×100 G Bond (ISL) | CRS520‑A (SW1)...
  12. MLOrion

    Proxmox Ceph Cluster sizing

    so es wurde bestellt. 4 Stk. AMD EPYC 9355 32 Core 3,55 GHz 256MB Cache 768 GB Ram DDR5 6400 6 x Micron 7500 PRO 7,6 TB OSD disks 2x Micron 7500 Pro 960GB ZFS boot 1x 2 Ports, 100GbE, QSFP56, Broadcom 57508 1x 4 Ports, 25GbE, SFP+ / SFP28, Broadcom 57504 mal gucken wie ich jetzt die Netze...
  13. MLOrion

    OVMF Device Default Settings

    Question: is there a way to change the OVMF default device settings for the vm resolution when creating a new vm ? like from 1280x800 to 1920x1080?
  14. MLOrion

    Proxmox @Ocean our fleet is Proxmox powered

    Proxmox @Ocean our fleet is Proxmox powered
  15. MLOrion

    Proxmox Ceph Cluster sizing

    Moin Zusammen wir planen einen Proxmox Cluster mit 4 Nodes Konfig per Node AMD EPYC 9334 32 Core 2,7 GHz 128MB Cache 768 GB Ram DDR5 5600 10 x Micron 7500 PRO 3,8 TB OSD disks 2x Micron M.2 960GB ZFS boot 1x 2 Ports, 100GbE, QSFP56, Broadcom 57508 1x 4 Ports, 25GbE, SFP+ / SFP28, Broadcom...