Proxmox Ceph Cluster sizing

Wobei dann ggf. noch anzumerken wäre, dass wenn man Corosync über den LACP-Bond schiebt eine Anpassung des Miimon-parameters sinvoll wäre, um den Ausfall eines Netzwerkinterfaces rechtzeitig zu detektieren.

Mit den 5ms Anforderung wäre aus meiner Sicht, und nach allem was ich mal in Regelungstechnik gelernt habe, ein Wert von 2ms (bond-miimon 2) sinnvoll.

BR, Lucas
 
ich habe beim Import nach dieser Anleitung vmware vm's diesen Fehler

unable to parse volume ID

wenn ich versuche eine vmdk von einem nfs share zu importieren. qm disk import {target VMID} {vmdk file} {target storage}
sowohl der ESX Host als auch Proxmox befinden sich im gleichen Netz und haben Zugriff auf die Freigabe.

Alles Mögliche versucht. Gibt es hier einen Trick?

Der Import von großen vm's über den ESX Import wird auf die Zeit immer langsamer.
 
Wenn du deine VM eh schon auf NFS hast, spare dir doch einfach den Import.
Weiter unten in der Anleitung steht, wie du die VMDKs an eine Proxmox VM hängen kannst.
Wenn du mit der Anleitung nicht klar kommst, schau dir auf YT mein Video von der Kielux 2023 an oder komme dieses Jahr zu Kielux oder zur Heise S2N, da zeige ich das ganze wieder live, mit ein paar extra Tipps.
 
es kann so einfach sein.... ich habe doch Veeam ;-)
Man wie einfach ist das bitte...
Aber leider kann Veeam kein Instant Restore auf PVE. Daher ist das für große VMs auch unpraktisch.
Wenn das bei deinen VMs noch passt, dann nutze gern Veeam.
Für mehrere TB große VMs möchte ich das aber nicht mit Veeam machen.
 
  • Like
Reactions: Johannes S
@Falk R. ich habe Veeam nur für die Migration der vm's genutzt.
1. vmware Tools deinstalliert.
2. qemu Tools installiert.
3. vm runtergefahren.
4. Vollbackup erstellt.
5. vm mit Veeam auf Proxmox widerhergestellt.

lief wunderbar.

Der Cluster läuft seit 3 Wochen ohne Probleme.

Ein Frage noch zu Ceph im Cluster.
Nach einem Update, den Node einfach neu starten und warten bis Ceph wieder alles als OK meldet, oder vorher

ceph osd set noout
ceph osd set norebalance

setzen und dann neu starten ?

Ich nutzte kein HA (noch nicht)

Danke
 
@Falk R. ich habe Veeam nur für die Migration der vm's genutzt.
1. vmware Tools deinstalliert.
2. qemu Tools installiert.
3. vm runtergefahren.
4. Vollbackup erstellt.
5. vm mit Veeam auf Proxmox widerhergestellt.

lief wunderbar.

Der Cluster läuft seit 3 Wochen ohne Probleme.

Ein Frage noch zu Ceph im Cluster.
Nach einem Update, den Node einfach neu starten und warten bis Ceph wieder alles als OK meldet, oder vorher

ceph osd set noout
ceph osd set norebalance

setzen und dann neu starten ?

Ich nutzte kein HA (noch nicht)

Danke


In der Regel reicht das noout, dann neustarten und dann wieder wieder unset noout.
Wichtig ist eigentlich nur das das Quorum bestehen bleibt und die MON noch genügend sind.

VG
 
  • Like
Reactions: MLOrion