aaron's latest activity

  • aaron
    Ist der Firefox aktuell? Gehts ohne eventuell aktive Addons/Extensions? -> Private Window
  • aaron
    ui, das hab ich wohl überlesen. Würde ich nicht tun! Wenn dann 2 NICs direkt und nur für das Full-Mesh nehmen. Alles andere ist nicht wirklich getestet und es wurde, glaube ich, schonmal von einem User versucht und war problematisch.
  • aaron
    aaron reacted to Impact's post in the thread Thick Provisioning to Thin Provisioning with Like Like.
    Note that the ZFS storage Thin provision option affects the refreservation property. Discard/fstrim will still work without it. I'm guessing for LVM-Thin it behaves similar to this...
  • aaron
    Grundsätzlich zum wechsel der Ceph netzwerke wird es da demnächst im admin guide ein kapitel geben. Bis dahin der doku patch: https://lore.proxmox.com/pve-devel/20260102165754.650450-1-a.lauterer@proxmox.com/ Wenn du aber nicht neues und altes...
  • aaron
    depends on the storage. If you import to ZFS for example and the "thin provision" option is enabled, then it will be thin, as in, zeros won't be written*. On RBD, you would need to do a trim/discard after the import, as, IIRC, on RBD, zeros will...
  • aaron
    Yes. Create a new rule on the DC level to allow Ceph traffic before you enable the firewall. There is a Ceph Macro you can choose. If you want to narrow it down further, you can specify the subnets used for the Ceph Public & Cluster network as...
  • aaron
    "unterschieben" ;-) Den Fileserver einfach in einer VM laufen lassen, welche durchaus Ceph RBD als Storage verwendet für die virtuellen Disks. Und die Fileserver VM muss dann so oder so die Files irgendwie zur Verfügung stellen. Ob das jetzt...
  • aaron
    hmm, wenn die auch nur virtuelle disks verwenden, dann ist das kein Problem, verwenden aber den RBD Layer von Ceph. Wenn die Gäste direkt CephFS reden sollen wirds komplizierter und wird mit einem Full-Mesh für das Ceph Public Netz wohl nicht...
  • aaron
    Prjma, Danke für den Vorschlag. Habs deinstalliert und starte demnächst durch. Btw. ich erhalte die VM ID108 und dies ist genau wie ich vermutet habe die VM in der akt. Synology DSM läuft. lrwxrwxrwx 1 root root 11 Jan 17 11:19 vm-108-disk-1 ->...
  • aaron
    Das ist eine virtuelle Disk einer deiner VMs! Mit `ls -l /dev/zvol/local-zfs` wirst du sehen, welche virtuelle disk (bzw. ZFS Dataset) auf `zd112` zeigt. Evtl. musst du den Pfad noch an den Pool Namen und evtl. sub Datasets anpassen. Am Namen...
  • aaron
    Das sieht mir nach eine VM aus die Synology betreibt und für sich ein MD Raid aufgesetzt hat? zd112 230:112 0 32G 0 disk ├─zd112p1 230:113 0 8G 0 part...
  • aaron
    aaron replied to the thread Suche nach einer qcow2 Datei.
    das hängt sehr start vom verwendeten Storage ab. Denn viele Storagetypen in Proxmox VE sind gar nicht dateibasiert sondern blockbasiert. Wo da Storage wie eine disk im System erkannt wird und als virtuelle Disk an die VM durchgereicht wird. z.B...
  • aaron
    Da spielt es grundsätzlich eine Rolle zwischen Ceph und anderen Diensten. Z.b. Proxmox VE cluster kommunikation via Corosync. Das Ceph Cluster Netz ist eben nur für die Replication zuständig. Siehe...
  • aaron
    Warum wenn ich fragen darf? Wie @bl1mp schon erwähnt hat, kann man Ceph Public und Ceph Cluster im gleichen IP subnet laufen lassen. Falls das Netz nicht mehr genug Bandbreite hat, kann man aber recht leicht die Last auf unterschiedliche IP...
  • aaron
    aaron reacted to VictorSTS's post in the thread Slow ceph operation with Like Like.
    Ceph Public is the network used to read/write from/to your Ceph OSDs from each PVE host, so your are limited to 1GB/s. Ceph Cluster network is used for OSD replication traffic only. Move Ceph Public to your 10GB nic and there should be an...
  • aaron
    aaron replied to the thread Slow ceph operation.
    Move that to a fast network too! Otherwise your guests will be limited by that 1 Gbit. see https://docs.ceph.com/en/latest/rados/configuration/network-config-ref/ for which ceph network is used for what. Checkout our 2023 Ceph benchmark...
  • aaron
    Yes, it was a network issue. Found that the proxmox nodes were in VLAN 56 & PDM was on VLAN 90. After putting PDM in VLAN 56, hosts were able to connect successfully with the PDM. Thanks for the assistance.
  • aaron
    aaron replied to the thread PVE8 -> PVE9 grub confusion.
    yes should be fine and needed. See https://pve.proxmox.com/wiki/Upgrade_from_8_to_9#Systemd-boot_meta-package_changes_the_bootloader_configuration_automatically_and_should_be_uninstalled for more background details as to why.
  • aaron
    Thanks! Im curious about the improvements they made to EC (should be a lot faster now). Will update soon and report back.
  • aaron
    There are commercial products, including ours, that provide stable enterprise-grade storage solutions fully integrated with Proxmox VE. Whether these platforms are a good fit depends on your specific requirements, including workload...