Search results

  1. Windows Server 2019 Standard Lizenz

    Hallo zusammen, ich hab hier eine Windows Server 2019 Standard Evaluation laufen und bräuchte dafür eine richtige Lizenz. Soweit wie ich das verstanden hab will Windows Server für die Zahl der CPU Kerne des Hosts lizensiert werden (soweit so schwachsinnig). Da der auf verschiedenen Hosts laufen...
  2. BTRFS

    Hallo zusammen, Klar, Auswahl ist immer gut und das hier soll auch bitte keinen Glaubenskrieg auslösen. Ich wüsste gerne welche Gründe es für euch gibt einen Pool mit BTRFS statt ZFS zu betreiben. Was macht BTRFS anders oder gar besser? Danke
  3. GPU passthrough welche Grafikkarte

    Ist die K5000 nicht fast 10 Jahre alt? Wundere dich nicht, wenn du damit eine eher mäßige Performance erreichst. Generell ist es leider auf Grund verschiedener Faktoren (Covid, Ethereum Mining ...) quasi unmöglich Grafikkarten zu vernünftigen Preisen zu erwerben. Ich hab gerade mehrere Karten...
  4. [SOLVED] Pool size reducing constantly, cant explain why.

    "lost" was maybe not the perfect description. I meant that the space that you are missing in your main pool will still be unusable if you don't move or delete the current content of /backup.
  5. [SOLVED] Pool size reducing constantly, cant explain why.

    I am not sure what link path with mount points means... IMO: Run "mount" and post the output here. You have to edit the file /etc/fstab and set the correct mount points. Move the content of /backups before to your external disk or the space currently used there will still be lost afterwards
  6. Awfully slow write performance

    This. SMR Drives are unusable for everything besides long term archiving and basically read only load. Running VMs on them is not really possible long term. It stops working as soon as the drive has to overwrite any parts. This is not a ZFS problem, the disks are basically broken by design.
  7. ZFS cache nachträglich einrichten...

    Einfach einen zfs mirror pool anlegen. Mdadm stört da nur .
  8. ZFS cache nachträglich einrichten...

    Stimmt. Dedup ist auf Dataset level. Deaktiviere Dedup für den ganzen Pool, kopiere die Daten via ZFS Send auf ein temporäres dataset und lösche das original. Dann das neue Dataset umbenennen damit es wie das alte heißt und proxmox nicht verwirrt ist.
  9. ZFS cache nachträglich einrichten...

    Dedup ist sehr wahrscheinlich dein Problem. Exportiere die Daten, lösche den Pool und lege den neu an (ohne Dedup) und spiele dein Backup wieder ein. Bei deiner Dedup Ratio ist die Funktion sowieso völlig sinnlos (kostet nur viel Leistung).
  10. ZFS Magie, ich zweifle an meinem Verstand.

    never mind...
  11. Backups and snapshots corrupting filesystems on qcows

    Hmm i actually don't know it but this might be a Copy on write filesystem + qcow combination issue. Your setup is not supported and definitely a questionable decision regarding performance. Is there any reason why you prefer btrfs + qcow over direct zfs? Edit: "scsi0" doesn't look like a...
  12. Backups and snapshots corrupting filesystems on qcows

    Try to use a virtio device instead of scsi device, install the qemu guest agent within the vm and enable it in the proxmox options. What kind of pool do you have (hdd or ssd, any kind of software or hardware raid?)?
  13. Backup Server and Proxmox on the same physical server

    Hello everybody, can i actually run both on the same physical hardware? I would like to setup a proxmox backup server and use it at the same time for some unimportant playground VMs. Thank you.
  14. [SOLVED] Proxmox VE mit ZFS RAM hungrig

    Super teuer müssen die SSDs nicht seien. Server SSDs reichen grundsätzlich. SLOG macht Sinn, L2Arc meistens nicht.
  15. Netzwerkproblem mit Bridge ("Absender IP" falsch)

    Das Problem ist gelöst. Für ein anderes Projekt wurde wohl eine Bridge mit internen IPs und NAT angelegt und dann die iptables MASQUERADE Regel ein wenig zu großzügig angewendet.
  16. Netzwerkproblem mit Bridge ("Absender IP" falsch)

    Hallo zusammen, ich habe seit kurzem ein Problem, das die Ursache für diverse andere Probleme zu sein scheint. Ich habe einen Proxmox Host laufen, der ein Subnetz (Hetzner) folgendermaßen für VMs bereitstellt: auto vmbr0 iface vmbr0 inet static address 188.40.xxx.209 netmask...
  17. Proxmox 6 CIFS stuck

    I have the same issue.... any ideas?
  18. Problems with Proxmox VE 6.2 & EPYC 7252

    It doesn't really look like a Proxmox issue for me. Seems to a Uefi problem of the server.I would try to run it without Uefi.
  19. Problems with Proxmox VE 6.2 & EPYC 7252

    EVOs survived surprisingly long in one of my testservers (about a year) but one of my clients used them in a high load production system and both disks failed after 6 weeks nearly simultaneously.
  20. Problems with Proxmox VE 6.2 & EPYC 7252

    Does it boot without the HDD?

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!