Falk R.'s latest activity

  • Falk R.
    Falk R. replied to the thread SLES Not detect Gui.
    It is not a general problem with Proxmox and Ceph. I have several customers with different SLES VMs and they all work normally. A large part of the VMs also have GUI and there are SLES15 SP1 to SLES15 SP5. It is difficult to say what is different...
  • Falk R.
    Da haben wir vermutlich die Ursache. Du hast 2 Fails im Setup. Bitte auf MTU 9000 setzen, und der Switch sollte dann Jumbo aktiv haben mit größeren MTU. Nimm da einfach das Maximum des Switches. Bei HPE Comware 10000, Aruba z.B. 9216 u.s.w. Bitte...
  • Falk R.
    Ich setzte beim PBS immer den Prune im PBS und der API Token darf bei mir niemals etwas löschen. Das sind für mich eigentlich Security Basics.
  • Falk R.
    Wenn man an mehreren Stellen einstellt, wie viele Backups vorgehalten werden sollen, gewinnen die aggressiveren Einstellungen. Z.B. sehr vereinfacht: Wenn am Backup Server 20 behalten werden sollen, aber man dann im Backup Job, oder den...
  • Falk R.
    Falk R. replied to the thread Proxmox Ceph Cluster sizing.
    Wenn ich bei google MikroTik und MLAG eingebe bekomme ich als ersten Treffer immer diese Doku: https://help.mikrotik.com/docs/spaces/ROS/pages/67633179/Multi-chassis+Link+Aggregation+Group Sonst schau dir das mal an...
  • Falk R.
    Eigentlich ist die Last beim Backup gar nicht so hoch. Was ernsthaft bremst, wenn der PBS zu langsam ist, wegen Anbindung oder Disks. Dann bremst du deine VMs mehr als das bisschen Last durch ein Backup.
  • Falk R.
    Eventuell machst du ja Backups auf einem NAS, wo du die Retention Einstellung im PVE benötigst.
  • Falk R.
    Ich habe keine Ahnung von Unify, aber die Einstellung sieht eher wie ein static LAG statt einem LACP aus. Außerdem müsstest du auf dem Switch auch Layer 3+4 mitgeben, damit das richtig funktioniert.
  • Falk R.
    Hi, wenn du so schlechte Performance und auch unterschiedliche Perforance hast, dann hast du irgendwo einen großen fehler im Netzwerk. Wenn du mit iperf schon die Netzwerkports nicht ausgelastet bekommst, dann läuft das Setup nicht wirklich...
  • Falk R.
    Falk R. replied to the thread Proxmox Ceph Cluster sizing.
    Warum hast du den Port gesplittet? Du hast doch 100G NICs, dann eher qsfp28-1-1 = Server 1 und qsfp28-2-1 = Server2. Außerdem bin ich kein Freund von ALB bei ceph, sondern nutze lieber MLAG auf den Switches und LACP Layer3+4 auf den Hosts. Die...
  • Falk R.
    Da wir nur raten können was du ursprünglich mal gebastelt hattest, würde ich zuerst den Container einmal als priviligiert restoren und dann den Mountpoint wieder einhängen. Eventuell läuft es dann schon wieder. Normalerweise müsstest du aber...
  • Falk R.
    Hast du einen Livestick der auch ZFS mounten kann? Dann würde ich mal mit einem Livestick den Pool mounten und überprüfen lassen. Die NVMe scheint ja OK zu sein.
  • Falk R.
    Du hast deinen Share in einem LXC gebaut, läuft denn da der Dienst, den du verwendet hast (vermutlich samba) überhaupt? Hast du den container priviligiert restored? Als Unpriviligierter Container hat er nicht genügend Rechte, SMB zur Verfügung zu...
  • Falk R.
    Eine VM erwartet eine eigene Disk, wenn du da ein Device per SATA, SCSI oder IDE anbindest. Linux erlaubt es Disks auch ohne Partition zu formatieren, deshalb "denkt" OMV dass es eine Disk eingehängt bekommen hat, wo schon einmal jemand ext4...
  • Falk R.
    Ich glaube nicht dass es an Proxmox liegt. Entweder ist das ein problem in der VM (für mich etwas Wahrscheinlicher) oder doch irgendwo im Netzwerk. Übrigens, das ging doch früher immer, ist kein Argument. Ich musste bei einem Kunden auch lernen...
  • Falk R.
    Dein ZFS Pool lässt sich nicht importieren, entweder fehlt eine Disk oder die Disk ist sehr Wahrscheinlich defekt. Viel mehr kann man mit nur einem Screenshot nicht rein interpretieren.
  • Falk R.
    Ich habe noch nie versucht ein Verzeichnis als virtuelle Disk an eine VM durchzureichen. Du nutzt ext4 auf der Disk, was OMV vermutlich erkennt und dann das ext4 mountet und lustig da drauf schreibt, der Host hat die Disk aber auch per ext4...
  • Falk R.
    For Synology NAS i found a solution, On Synology the NFS rule 'Squash" have to be set to "No mapping"
  • Falk R.
    Das RST, ACK ist ja eigentlich eine saubere Connection Close Meldung. Irgendwer schließt den Stream. Ich habe auch einen Kunden mit einer komischen Software, wenn ich die VM auf Proxmox starte, sind angeblich die Daten korrupt. Starte ich die VM...
  • Falk R.
    Also wenn ich das richtig verstehen funktioniert der NAS Share vom Host zur VM auch wenn die ESXi nicht zugreifen können? Ich habe mir auch noch einmal deine Textdatei angeschaut. Mit den X550 Intel NICs habe ich auch schon massive Probleme mit...