Nein, hier geht es nicht ums Forum sondern dass falsche Fakten da stehen. Ganz einfach.
Dann verlinke das nächste Mal einfach das offizielle Wiki, da steht es auch korrekt.
I didnt know that, but that kinda begs the question what does the dashboard offer you beyond what PVE presents; if it really something necessary, I'd probably just set up ceph with cephadm seperate from pve. PVE doesnt consider the entirety of...
I should have been more specific - we do not support "incremental restore" on top of an already restored guest, for the same reason. It is a bit of a similar issue like persistant bitmaps - the blockage is not so much technical (the hurdles there...
Fleecing ist nur ein Cache damit du nicht auf den PBS warten musst.
Die Backups laufen immer so, dass wenn während eines Snapshot Backups die VM schreiben möchte, muss der Block vorher gelesen werden und auf dem PBS geschrieben werden, bevor der...
Bitte nicht, wenn ihr eh schon vSAN nutzt, dann habt ihr doch schon alle Voraussetzungen für Ceph. Das harmoniert und skaliert viel besser als ein externes Storage.
Derzeit kann das eingebaute CRS nur so viel wie DRS Teilautomatisiert. Es gibt...
https://www.proxmox.com/en/about/about-us/stories hat einiges an Success Stories über Firmen, die ihre Infrastruktur migriert haben. Envtl. kann auch deren Vertrieb sales@office.com mit Referenzen dienen.
Auf die Schnelle habe ich folgende...
Hi, selbst migriert habe ich bisher erst Cluster bis ca. 300VMs, aber ich kenne auch Unternehmen mit bis zu 2000VMs.
Bei großen Unternehmen ist es aber oft schwieriger Infos zu bekommen, die veröffentlicht werden dürfen.
Die Migration von großen...
Yes, lvm/thin is not cluster-aware so you will risk a loss of data. It's not supported for a reason, see also the table on https://pve.proxmox.com/wiki/Storage which clearly states that lvm/thin is NOT a shared storage.
No for exactly the...
Just restore the VM of your choice on the other node. The storage type on the other node does not have to be the same as it was on the source. The result is basically a "replicated" VM from/to different filesystems ;-)
The are CLI tools...
Hi!
I'm not sure whether this will fit into the concept of HA itself, but if the guest is already on shared storage only, then it easily possible to recover that VM to a running node by just moving the guest's configuration file to the running...
Feature-Requests und Bugreports am Besten über https://bugzilla.proxmox.com/enter_bug.cgi?product=pdm einreichen, hier im Forum gibt es keine Garantie, dass die Entwickler das mitkriegen, beim Bugzilla dagegen schon.
@bbgeek17 wrote two pieces which should cover your questions:
https://kb.blockbridge.com/technote/proxmox-lvm-shared-storage/
https://kb.blockbridge.com/technote/proxmox-qcow-snapshots-on-lvm/
Basically snapshot on lvm/thick wasn't supported...
Doch das geht schon (zumindestens ab ZFS 2.3.3, das ist ab ProxmoxVE 9 dabei), siehe: https://pve.proxmox.com/wiki/ZFS_on_Linux#_zfs_administration ->Extend RAIDZ-N
In deinen Fall müste also (nicht getestet) zpool attach datengrab raidz1-0...
Hinsichtlich live-Migration, ja.
Richtig, der ist ja gerade kaputtgegangen.
Naja, wie in #2 schon erwähnt: du verlierst die Daten seit der letzten Replikation.
Aber ja, auf dem überlebenden Node startet HA diese VM neu. Automatisch!
No, migrating between nodes and back should work. For the resetup migrating the guests off the node, removing it from the cluster and reinstalling is propably the best course of action...
This is as expected. You need at least 80% of the remotes have a basic subscription to not get these message, see this post by a staff member:
https://forum.proxmox.com/threads/proxmox-datacenter-manager-1-0-stable.177321/post-821945
My guess is...
There will be few workloads that will be able to stress out your NVMe lanes. Unless you have that kind of workload, I would suggest 2x6 RAIDZ2 if you only have 1 server - it is safer to have less disks in a VDEV, it is still plenty fast. Don’t...