Search results

  1. aaron

    Ceph Migration bond (LACP) Interfaces zu Openfabric

    Grundsätzlich zum wechsel der Ceph netzwerke wird es da demnächst im admin guide ein kapitel geben. Bis dahin der doku patch: https://lore.proxmox.com/pve-devel/20260102165754.650450-1-a.lauterer@proxmox.com/ Wenn du aber nicht neues und altes Netz Parallel betreiben kannst, wirds eing bisschen...
  2. aaron

    Thick Provisioning to Thin Provisioning

    depends on the storage. If you import to ZFS for example and the "thin provision" option is enabled, then it will be thin, as in, zeros won't be written*. On RBD, you would need to do a trim/discard after the import, as, IIRC, on RBD, zeros will be written initially. Not sure how LVM-thin will...
  3. aaron

    5 Node Cluster with Ceph, want to activate the Proxmox Firewall

    Yes. Create a new rule on the DC level to allow Ceph traffic before you enable the firewall. There is a Ceph Macro you can choose. If you want to narrow it down further, you can specify the subnets used for the Ceph Public & Cluster network as the source and target networks. Aliases can be...
  4. aaron

    Verständnisfrage zu Ceph Full Mesh

    "unterschieben" ;-) Den Fileserver einfach in einer VM laufen lassen, welche durchaus Ceph RBD als Storage verwendet für die virtuellen Disks. Und die Fileserver VM muss dann so oder so die Files irgendwie zur Verfügung stellen. Ob das jetzt SMB, NFS, oder ein Nextcloud/Opencloud oder was auch...
  5. aaron

    Verständnisfrage zu Ceph Full Mesh

    hmm, wenn die auch nur virtuelle disks verwenden, dann ist das kein Problem, verwenden aber den RBD Layer von Ceph. Wenn die Gäste direkt CephFS reden sollen wirds komplizierter und wird mit einem Full-Mesh für das Ceph Public Netz wohl nicht mehr gehen. Denn dann reden ja die Gäste direkt, und...
  6. aaron

    Email mit DegradedArray event on /dev/md126:pve01

    Das ist eine virtuelle Disk einer deiner VMs! Mit `ls -l /dev/zvol/local-zfs` wirst du sehen, welche virtuelle disk (bzw. ZFS Dataset) auf `zd112` zeigt. Evtl. musst du den Pfad noch an den Pool Namen und evtl. sub Datasets anpassen. Am Namen erkennst du die VMID. vm-XXX-disk-Y, wo XXX die VMID...
  7. aaron

    Email mit DegradedArray event on /dev/md126:pve01

    Das sieht mir nach eine VM aus die Synology betreibt und für sich ein MD Raid aufgesetzt hat? zd112 230:112 0 32G 0 disk ├─zd112p1 230:113 0 8G 0 part linux_raid_member SynologyNAS:0...
  8. aaron

    Suche nach einer qcow2 Datei

    das hängt sehr start vom verwendeten Storage ab. Denn viele Storagetypen in Proxmox VE sind gar nicht dateibasiert sondern blockbasiert. Wo da Storage wie eine disk im System erkannt wird und als virtuelle Disk an die VM durchgereicht wird. z.B. (thin) LVM wo die logical volumes (LV) direkt an...
  9. aaron

    Verständnisfrage zu Ceph Full Mesh

    Da spielt es grundsätzlich eine Rolle zwischen Ceph und anderen Diensten. Z.b. Proxmox VE cluster kommunikation via Corosync. Das Ceph Cluster Netz ist eben nur für die Replication zuständig. Siehe https://docs.ceph.com/en/latest/rados/configuration/network-config-ref/ Alles andere, auch der...
  10. aaron

    Verständnisfrage zu Ceph Full Mesh

    Warum wenn ich fragen darf? Wie @bl1mp schon erwähnt hat, kann man Ceph Public und Ceph Cluster im gleichen IP subnet laufen lassen. Falls das Netz nicht mehr genug Bandbreite hat, kann man aber recht leicht die Last auf unterschiedliche IP subnetze, und damit einhergehend hoffentlich auch...
  11. aaron

    Slow ceph operation

    Move that to a fast network too! Otherwise your guests will be limited by that 1 Gbit. see https://docs.ceph.com/en/latest/rados/configuration/network-config-ref/ for which ceph network is used for what. Checkout our 2023 Ceph benchmark whitepaper (in the sticky threads). A 10 Gbit network will...
  12. aaron

    PVE8 -> PVE9 grub confusion

    yes should be fine and needed. See https://pve.proxmox.com/wiki/Upgrade_from_8_to_9#Systemd-boot_meta-package_changes_the_bootloader_configuration_automatically_and_should_be_uninstalled for more background details as to why.
  13. aaron

    New Mobile App for Proxmox VE!

    It should be available for iOS by now: https://apps.apple.com/us/app/proxmox-ve-companion/id6748314140
  14. aaron

    Ceph performance

    What exactly? If you have specific questions that we can try to answer?
  15. aaron

    Cluster auflösen, alter Stand wieder vorhanden?

    Beim Clusterjoin wird sehr viel was in /etc/pve liegt vom Cluster überschrieben. Die Daten dort sind Teil des pmxcfs https://pve.proxmox.com/pve-docs/pve-admin-guide.html#chapter_pmxcfs Davor wird aber noch ein Backup bemacht. Schau mal auf dem Host was im /var/lib/pve-cluster/backup Verzeichnis...
  16. aaron

    Node going offline after setting up VMs to migrate

    How many corosync networks do you have configured? If it is only one, chances are high that it is the same network used for the live migration. Then the live migration most likely consumed all the bandwidth. In turn, the latency for Corosync went up to the point where it deemed the connection...
  17. aaron

    VMFS equivalent in Proxmox? Shared iSCSI filesystem across multiple nodes

    With PVE on a shared LUN you use LVM to split it up. That is a block storage. See https://pve.proxmox.com/wiki/Multipath that also touches the final setup after multipathing (which you will usually have in such setps). No, that is a complex problem to solve. It would take up quite some...
  18. aaron

    Node going offline after setting up VMs to migrate

    What does it mean "goes offline"? Does it reboot? How is the network set up? Do you have a dedicated physical network just for corosync (PVE cluster communication) or is it sharing that with the network used for the live migration? Unless specified in the DC -> options, the main mgmt (IP of the...
  19. aaron

    Login fails on TFA after changing cluster IP addresses

    Yes, or more precisely, the API, it does not affect SSH logins.