Search results

  1. I

    Ist das verwenden der boot disk als datastore nicht vorgesehen?

    Ich versuche es :) Wenn ich PBS auf einer einzelnen SSD installiert habe, egal ob ZFS oder ext4, kann ich kein directory erstellen, weil mir "no disks unused" angezeigt wird. Auch der Button "Create: ZFS" zeigt mir "no disks unused". Darum ist für mich die Frage, ob PBS das ähnlich wie TrueNAS...
  2. I

    Ist das verwenden der boot disk als datastore nicht vorgesehen?

    Ist das verwenden der boot disk als datastore nicht vorgesehen? Ähnlich wie bei TrueNAS? Das GUI will es mir nicht anbieten, also ist es offiziell out of spec? Möchte keine out of spec config fahren ;)
  3. I

    First steps with PBS, pleasant surprise

    I assume the 128k default? AFAIK PBS uses dynamic chunk sizes or you can set it 4MB fixed size. While I don't know how big these dynamic chunks are, my guess would be also around 4MB. So it is probably a good idea to set the recordsize to 16MB? Also also ran them, and both finished under one...
  4. I

    First steps with PBS, pleasant surprise

    Cheers. Will check tomorrow how the webGUI handles this when creating it. Zvol or dataset? What record size or volblocksize does it use?
  5. I

    First steps with PBS, pleasant surprise

    Guess I was wrong. I can create a datastore with /rpool/testdatastore1 as path. Also with /var/test2 as path. For some reasons, the latter will use 1.2GB during creation, while the rpool one only needs 25MB.
  6. I

    First steps with PBS, pleasant surprise

    After reading a lot about PBS, I decided to do some real-world tests and installed PBS on an old Dell Optiplex 3020 with a 60GB SSD as the boot disk and an old 8TB HDD. The first hurdle I ran into was that somehow my local PVE was not able to connect to my remote PBS over my static IPv6 2001...
  7. I

    ZFS HDD fail, errors and data corruption issues

    not sure if I understand your question about smart. It does show you bad sectors. But either way, it doesn’t matter. Smart isn't precise, it is mostly a tool that sometimes (I remember 70% but could be wrong) can detect that I drive is going bad. ZFS with its checksums on the other hand...
  8. I

    Simply adding another drive and GPU destroyed my ZFS Raid

    I don't understand your setup. You use proxmox or Ubuntu as hypervisor? Or do you use Ubuntu on top of Proxmox? Then I would simple use ext4 for ubuntu, since it's disk is on your proxmox ZFS?
  9. I

    Simply adding another drive and GPU destroyed my ZFS Raid

    IMHO this is a good warning on why you should not use complex setups and instead KISS. I assume you used the passtrough for TrueNAS? Proxmox is a great Hypervisor, TrueNAS is a great NAS. Both have different hardware needs and it is often times cheaper to get one system for each. Virtualizing...
  10. I

    ZFS HDD fail, errors and data corruption issues

    A mirror protects you from a failing drive. A 3 way mirror protects you from two failing drives. You went with mirror. And in one mirror you put two drives of the same model. No matter if RAIDZ2 or mirror or any other pool layout, I always recommend to use different drives. This is because of...
  11. I

    Strange ZFS behavior

    Uff replacing the disk was a little bit of a challenge, but should work for now. zpool detach rpool nvme1n1p3 Deleted the disk in the webGUI sgdisk /dev/nvme0n1 -R /dev/nvme1n1 sgdisk --randomize-guids /dev/nvme1n1 proxmox-boot-tool format /dev/nvme1n1p2 proxmox-boot-tool init /dev/nvme1n1p2...
  12. I

    Strange ZFS behavior

    Something pretty strange happend again to my ZFS pool today, but it is probably best to start from the beginning. For multiple years I had a WD Red and a Kingston DC NMVE as mirrors. Few months ago I got a email that the Kingston drive was gone. I did not think much of it, ordered a 990 Pro...
  13. I

    Server 2025 VMs unglaublich träge

    Windows 2025 ist Käse (was schon nicht aus dem Hause Microsoft), trotzdem installiere ich heute keinen Windwos Server 2022 mehr, wenn Oktober 2026 Supportende ist.
  14. I

    Server 2025 VMs unglaublich träge

    Nachträglich? Oder vor der Installation von Windows? Wenn Windows diese Einstellungen tatsächlich bei der Installation festlegt, würdest du deine "falschen" Einstellungen damit zurückspielen. Würde darum komplett neu anfangen.
  15. I

    Server 2025 VMs unglaublich träge

    Ich tippe auf: cpu: x86-64-v2-AES Auf host zu stellen, wie es @Falk R. vorschlägt, halte ich für eine ganz schlechte Idee. Die Migration wird schwieriger, du gewinnst nix gegenüber x86-64-v2-AES und Windows checkt nicht, dass es selbst eine VM. Checkt Windows den VM Status nicht, macht es viele...
  16. I

    PVE instabil wg. defekter Festplatte eines zfspools

    Sollte bei einem ZFS mirror da nicht einfach von der anderen Disk gelesen werden? Oder bleibt einfach eine Leseoperation stecken und die verzögert dann alles?
  17. I

    CPU type `host` is significantly SLOWER than `x86-64-v2-AES`

    Can you be more specific? The ones I listed already
  18. I

    PVE instabil wg. defekter Festplatte eines zfspools

    Würde das Gegenteil behaupten. Eine ZFS mirror kann es nicht egaler sein, ob eine Platte ausfällt. Theoretisch zumindest ;) zvols (bei proxmox local-zfs) sind blockstorage (mit einer fixen volblocksize) per default 16k. datasets (bei Proxmox local) sind datasets (mit einer max record size) per...
  19. I

    PVE instabil wg. defekter Festplatte eines zfspools

    Sollte es eigentlich nicht. Vielleicht war da noch ein anderes Problem. RAM? Kontroller? Netzteil? Offtopic, aber wenn du einer VM eine Laufwerk zuweist, liegen die Daten danach auf blockstorage mit einer fixen volblocksize (16k). Das hat einige Nachteile gegenüber einem Dataset mit einer...
  20. I

    Suche M.2 SSD für System

    Für den Heimgebrauch sind TLC oder V-Nand voll ok. Ansonsten gibt es noch NAS SSDs, häufig nicht besonders schell aber hohe TBW (WD SN700), Server SSDs, die dann aber häufig nicht SATA sondern Anschlüsse wie U.2 oder U.3 oder noch exotischer setzen. IMHO sind viele SATA oder M.2 Server SSDs...