Search results

  1. Moving mirrored ZFS PCIe NVME disks to new server

    You could use "zpool export <Pool>" *then* move your NVMe Disks to the new Server and *then* use "zpool import" (src: https://www.errth.net/moving-zfs-pool-between-proxmox-servers/ )
  2. no webgui today

    Your root-filesystem seems to be readonly - You may check if `dmesg` contains any further FS or IO-Errors which have caused the FS to go readonly in the first place.
  3. No bootable device - migrierte Server lassen sich nicht rebooten

    Wir haben das Problem heute bei einer VM unter PVE 6.4 erlebt. Der Speicher lag auf einem NFS Laufwerk und die Festplatte war per SATA an die VM gebunden (sata0). Nach der Neuinstallation des Bootloaders und der Wiederherstellung durch Testdisk lief die VM wieder.
  4. EXT4 aus bestehendem Ubuntu System in Proxmox übernehmen ohne Datenverlust

    Ja. Zu 4.) Nach dem Kopieren die zweite Platte platt machen und dann zum Mirror attachen. Das ZFS stellt das ganze dann automatisch bereit.
  5. EXT4 aus bestehendem Ubuntu System in Proxmox übernehmen ohne Datenverlust

    Hast du die 10TB Platten im RAID1 laufen? Wenn ja: Du kannst mit einem halben RAID auch eine Datenmigration machen, wenn du auf die entnommene Festplatte im neuen Host ein ZFS schreibst (die Daten auf der Platte gehen dabei natürlich verloren). Aber damit könntest du die Platte bereits für VMs...
  6. VM ignoriert die Bootreihenfolge?

    Ich vermute mal, dass überhaupt nicht bootbar bedeutet, dass das VM-BIOS feststellt, dass da "nichts" im MBR ist. Wenn der Bootloader kaputt ist, wird er ja u.U geladen und das BIOS hat nichts mehr damit zu tun und erkennt das damit nicht korrekt.
  7. VM ignoriert die Bootreihenfolge?

    Ist auf der Festplatte ein Bootloader installiert? Die VM wird nur dann zum booten der CD übergehen, wenn die Festplatte überhaupt nicht bootbar ist.
  8. Proxmox VM Backup

    Did you enable "discard" on these vm-disks? If not: Enable it and wait some time. Windows should automatically free up this formerly used space.
  9. Proxmox CPU

    Das hängt davon ab was für ein Budget du hast und welche Software darauf laufen soll. Aktuell würde ich bei der Wahl zwischen Xeon Silver oder Gold auf einen Epyc3 setzen.
  10. Shared CEPH Storage unknown to some Cluster members

    Could you try restarting the pvestatd on the affected nodes? service pvestatd restart
  11. VM friert bei Storage-Migration ein (Ceph)

    Hallo zusammen, wir betreiben einen Proxmox-Cluster bestehend aus mehreren Hosts mit Epyc 7702P + 512GB RAM + 2x 960GB SSDs (Boot) + 4x 3.84TB DC SSDs (Storage/Ceph). Auf drei der Hosts habe ich nun Ceph (via GUI Installer) installiert. Die Hosts sind über einen 25Gb Switch redundant...
  12. Schreibrate NVME in WIN10Guest

    Sofern du die Möglichkeit hast die vorgeschlagenen Änderungen zu testen wäre es einen Versuch wert; Es kann natürlich sein, dass das in Verbindung mit Ceph überhaupt keinen Unterschied macht - Ich habe bisher nicht mit Ceph gearbeitet.
  13. Nvme drive disappeared

    That actually sounds like some kind of firmware issue. Are there any firmware updates available for this drive? Could you install the misbehaving NVMe drive in a different slot? If those issues still remain you may want to contact your seller or wdc to get this drive replaced.
  14. Reinstall node in cluster

    If you are using HA you may encounter stale lrm-status entries in the HA-status. But besides that we did not encounter any further problems with this practise.
  15. Schreibrate NVME in WIN10Guest

    Hast du es mal hiermit versucht: https://forum.level1techs.com/t/fixing-slow-nvme-raid-performance-on-epyc/151909 ? Alternativ gibt es von AMD auch einen NVMe Tuning Guide.
  16. Schreibrate NVME in WIN10Guest

    Was für NVMes setzt du ein? Was für Server sind das? Was für ein Storage-Netzwerk nutzt du?
  17. Reinstall node in cluster

    As far as I am concerned you have to remove the outdated SSH-Hostkeys that every other pve node in the cluster holds. Otherwise you well get those typical SSH Security Breach warnings when connecting to the other pve nodes.
  18. Nvme drive disappeared

    Could you post the output of smartctl -a /dev/nvme1n1 and smartctl -a /dev/nvme2n1?
  19. Nvme drive disappeared

    Are you using an epyc-based server?
  20. vm Start + vzdump - QEMU exited with code -1

    Hier tritt das auch auf (Qemu exited with Code -1, VMs starten via qm start <VEID> aber normal). Ebenfalls ZFS over iSCSI (der Storage wird ebenfalls von einem PVE 6.2 via LIO bereitgestellt).

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!