Danke, meine hab ich noch nicht aufgeschraubt. Dass sie hier wirklich kleine radiale Elkos ins Gehäuse packen, finde ich schon ein wenig amüsant.
Meistens, gerade auch bei m2 NVMEs sind dann doch SMD Varianten aufgelötet.
No, the direct importer is rather new and will only work with the specified ESXi versions. But checkout the other options in that guide if they can work for you. If you store the VMs on a network share, for example, you can import the disk images with minimal downtime.
Nur mal ganz kurz; die Firmware einer SSD liefert irgendwann die Bestätigung nach oben, dass die Daten geschrieben wurden. Wenn es sich um einen "sync" Schreibvorgang handelt, bzw. vom OS ein "flush/sync" gemacht wird, sollte die SSD erst das ACK liefern, wenn direkt zu dem Zeitpunkt der Strom...
Well, usually, most OSes install their UEFI boot loader in the default location as well. If they don't (Debian for example) you can add it manually. See https://pve.proxmox.com/wiki/OVMF/UEFI_Boot_Entries
Wenn das explizit für Proxmox VE so geliefert wurde, kann es gut sein, dass es sich dabei um ein Backup handelt das aus einem Proxmox VE erstellt wurde. Ist es eine *.vma.zst Datei?
Switching an OS that was installed to boot in UEFI mode to boot in legacy BIOS mode is something that heavily depends on how the OS was installed.
Why not use OVMF (uefi)?
Sounds good overall. Both, old and new, network addresses are available during the procedure right?
And yeas, destroy and recreate one MON at a time. This way the PVE & Ceph tooling will take care of everything, changing that MONs IP in the ceph.conf and the monmap.
MGR don't necessarily need...
How is the disk and file system doing? Those are worrying. Check the journal of there are any I/O errors reported by the kernel.
journalctl --grep 'I/O'
Ceph can handle and recover from a lot of situations. There are only a few situations where the answer is to nuke it and restore from backup ;)
Such situations that I encountered over the last years were:
deleted all MONs (and even then, the cluster can be usually recovered to a point where...
Ceph MONs themselves don't take their IPs just from the ceph.conf file! They have their internal monmap where they keep track what other MONs should be there to form the quorum.
Is the old network config still available? Or can you add it temporarily? Then the procedure is rather simple. Switch...
You can choose from quite a few different options on how to schedule the job. What you see in the web UI are examples that you can then customize further.
There should also be a "Schedule Simulator" in the top right of the DC->Backups panel where you can see when the next runs would be with a...
Um eine Installation auf andere Disks umzuziehen ist es mit ZFS recht gut dokumentiert, bzw. gibts einige Anleitungen. Das Dateisystem für das Root-FS kann während der Installation bei der Auswahl der Disk festgelegt werden.
Da es, soweit ich es verstehe, von einer kleineren auf eine größere...
Welches Dateisystem verwendet die aktuelle Installation? Falls die auf ZFS installiert ist, wäre so ein Umziehen auf eine andere Disk nicht so schwierig.
This will most likely become a bottleneck very quickly. Go with 100Gbit or at least 25. Have you seen the following benchmark paper? https://forum.proxmox.com/threads/proxmox-ve-ceph-benchmark-2023-12-fast-ssds-and-network-speeds-in-a-proxmox-ve-ceph-reef-cluster.137964/
How is your network configured? Is that subnet configured on multiple NICs?
We usually recommend to use different IP subnets if you want so distribute traffic over different physical NICs/Bonds. Configuring routes for specific hosts/ranges over a different NIC can work, but can lead to issues...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.