Since your nodes are in a Proxmox cluster, SSH keys are already exchanged between them.
That makes this pretty painless.
SSH shutdown from node 1's NUT script, Node 1 already has a working NUT client, so you just add a script that SSHs into node...
Es gibt natürlich zahlreiche valide Ansätze. Ich verwende (im Homelab) "Zamba": https://github.com/bashclub/zamba-lxc-toolbox. Damit bekommt man einen ausgereiften AD-kompatiblen Fileserver, der für die Windows-Nutzer beispielsweise die...
Yes, that's the culprit.
I've been there once. The lesson I learned was to only modify the structure of a cluster when all nodes are online :-)
The workaround is to make corosync.conf editable. As that node has not quorum you need to mount the...
Cool, thanks! I guess that's exactly what we'll need. And when it gets integrated into PDM, even better. HA is not something that we're after, so that's not a limitation. The only thing that we'll need to keep in mind is to update the replication...
You could use pve-zsync but it doesn't allow auto-failover aka HA:
https://pve.proxmox.com/wiki/PVE-zsync
So you would need to launch the vms on your offsite cluster manually in case of a failover event.
The Datacenter-Manager doesn't have it...
Nein, hier geht es nicht ums Forum sondern dass falsche Fakten da stehen. Ganz einfach.
Dann verlinke das nächste Mal einfach das offizielle Wiki, da steht es auch korrekt.
I didnt know that, but that kinda begs the question what does the dashboard offer you beyond what PVE presents; if it really something necessary, I'd probably just set up ceph with cephadm seperate from pve. PVE doesnt consider the entirety of...
I should have been more specific - we do not support "incremental restore" on top of an already restored guest, for the same reason. It is a bit of a similar issue like persistant bitmaps - the blockage is not so much technical (the hurdles there...
Fleecing ist nur ein Cache damit du nicht auf den PBS warten musst.
Die Backups laufen immer so, dass wenn während eines Snapshot Backups die VM schreiben möchte, muss der Block vorher gelesen werden und auf dem PBS geschrieben werden, bevor der...
Bitte nicht, wenn ihr eh schon vSAN nutzt, dann habt ihr doch schon alle Voraussetzungen für Ceph. Das harmoniert und skaliert viel besser als ein externes Storage.
Derzeit kann das eingebaute CRS nur so viel wie DRS Teilautomatisiert. Es gibt...
https://www.proxmox.com/en/about/about-us/stories hat einiges an Success Stories über Firmen, die ihre Infrastruktur migriert haben. Envtl. kann auch deren Vertrieb sales@office.com mit Referenzen dienen.
Auf die Schnelle habe ich folgende...
Hi, selbst migriert habe ich bisher erst Cluster bis ca. 300VMs, aber ich kenne auch Unternehmen mit bis zu 2000VMs.
Bei großen Unternehmen ist es aber oft schwieriger Infos zu bekommen, die veröffentlicht werden dürfen.
Die Migration von großen...
Yes, lvm/thin is not cluster-aware so you will risk a loss of data. It's not supported for a reason, see also the table on https://pve.proxmox.com/wiki/Storage which clearly states that lvm/thin is NOT a shared storage.
No for exactly the...
Just restore the VM of your choice on the other node. The storage type on the other node does not have to be the same as it was on the source. The result is basically a "replicated" VM from/to different filesystems ;-)
The are CLI tools...
Hi!
I'm not sure whether this will fit into the concept of HA itself, but if the guest is already on shared storage only, then it easily possible to recover that VM to a running node by just moving the guest's configuration file to the running...
Feature-Requests und Bugreports am Besten über https://bugzilla.proxmox.com/enter_bug.cgi?product=pdm einreichen, hier im Forum gibt es keine Garantie, dass die Entwickler das mitkriegen, beim Bugzilla dagegen schon.
@bbgeek17 wrote two pieces which should cover your questions:
https://kb.blockbridge.com/technote/proxmox-lvm-shared-storage/
https://kb.blockbridge.com/technote/proxmox-qcow-snapshots-on-lvm/
Basically snapshot on lvm/thick wasn't supported...
Doch das geht schon (zumindestens ab ZFS 2.3.3, das ist ab ProxmoxVE 9 dabei), siehe: https://pve.proxmox.com/wiki/ZFS_on_Linux#_zfs_administration ->Extend RAIDZ-N
In deinen Fall müste also (nicht getestet) zpool attach datengrab raidz1-0...