celemine1gig's latest activity

  • C
    And what exactly do you want to tell us with that? I saw the exact same posting on reddit. Bot?
  • C
    Wasn't this thread created to share methods usable in PvE9? *Since it's qemu10, we can tell it's pve9. The person performing maintenance on Proxmox in the thread below is also aware of this issue itself. updated to PVE 9.0 then GPU...
  • C
    What exactly do you mean by "doesn't work"? Do you have a link, as reference? If I remember correctly, it might have been with PVE8, that I last tried iGPU passthorugh on an Intel iGPU.
  • C
    The "official" ROM is the one implemented in your BIOS/card (depending on the question if it's an iGPU, or a dGPU). And the Proxmox documentation tells you how to extract it.
  • C
    As long as you have PCIe devices (or SATA drives, ...), that keep their controller from reaching its lowest power state (which not supporting ASPM does), then you cannot reach the lower package C-States anyway, as long as that hardware is...
  • C
    Makes sense. As mentioned, it is well known, that several LSI HBAs have severe ASPM issues. And now that I think about it, the first Intel 10G controller with working ASPM is X710. So consequently, the much older 82599 is showing problems. All in...
  • C
    You are most likely completely mixing up PCIe port bifurcation and NIC physical and virtual functions. So, what exactly is it, that you are trying to (or think that you are trying to) achieve? Detailed description of your goal.
  • C
    You could also have a power problem with those adapter cables. Remember, that a card can draw upto 75W from the slot. Which in this case is your cable adapter. So make sure it gets enough external power and maybe add an extra cap or two for more...
  • C
    First of all, the LSI cards are (nearly all) known for having severe issues with PCIe ASPM. Once that kicks in, you'll be flooded with AER error messages. So, not a good object for comparison. Now, concerning your Intel X540: Did not test those...
  • C
    Blacklistet testweise auf dem Proxmox Host (in dem ja die Mellanox steckt) das Treibermodul für den SMBus. Soweit ich weiß war das die Lösung vor einigen Monaten, als ich drüber gestolpert bin. Die Mellanox Karten nutzen die SMBus Verbindung...
  • C
    Mehr als den Hinweis "56 vs. 57" wird's von mir nicht mehr geben, denn den Hinweis zu diesem Thema gab es ganz zu Anfang schon. Viel Erfolg! Auf dem Silbertablett dürfen es andere präsentieren, wenn sie wollen.
  • C
    Jetzt bitte ein "lspci -n" unter Linux, in dem dann hoffentlich der "8086:125C" Eintrag verschwunden ist. Denn nur weil ein Ping nicht geht, heißt das erstmal nix.
  • C
    So wie das, unten zitiert im Originalbeitrag steht, sagt es aus, dass Windows wunderbar läuft bevor man einen weiteren Slot bestückt. Also entweder war das schwer missverständlich formuliert, oder hat keine Aussagekraft.
  • C
    Wenn dein Linux Kernel noch mechanisch arbeitet, dann würde das einiges erklären. :cool: Jetzt ernsthaft und zum Thema: Falls deine NUC keine eingebaute EFI-Shell mehr besitzt besogst du dir ein passenden X64-Binary z.B. hier...
  • C
    Zeit für ein Support-Ticket bei Asus. Im Gegensatz zu uns werden die dafür bezahlt. Das sieht nämlich aktuell irgendwie nicht Proxmox-spezifisch aus.
  • C
    Wenn der Controller wirklich aus dem PCI-Listing verschwindet, dann hast du höchstwahrscheinlich kein Problem mit dem Linux Kernel. Edit: BIOS- oder Hardware-Thematik klingen da schon viel realistischer.
  • C
    Definiere mal "NIC vorhanden"! Eventuell führt das Einbauen der 2. NVMe einfach nur zu einer Verschiebung der Kennung des Netzwerkcontrollers (enpXsX). Das hat dann nichts damit zu tun, dass dieser nicht mehr funktionieren würde, sondern ist...
  • C
    Why did you just create a completely new thread, for the exactly same topic? Do you think, that creating just thread after thread will magically solve your problem?
  • C
    Just FYI, for the quirk to apply you would have to build a test Linux Kernel for your machine, with the PCI ID of you controller in question, added to the list of devices, that the "quirk_no_bus_reset" should be applied to. To my knowledge, there...
  • C
    So, directly attached to a PCH-port then, in this case. Did you "unbind" the devices from the "ahci" driver, before loading your VM(s)? This could also be an issue. Edit: PCIe reset issues are not that uncommon. Maybe you need to add a "quirk"...