Wozu für diesen selten Fall das tun? Wenn das wirklich notwendig wird, passt man einmal die IP in der /etc/network/interfaces an. Das dauert 5 Sekunden.
Da ist die Wahrscheinlichkeit für Probleme mit DHCP in vielen Jahren Betrieb größer.
Je nach Anforderung habe ich das bei Kunden von mir (Städte und Landkreise) entweder die Daten tatsächlich auf verschiedene Daten verteilt oder wenigstens die Backups in einem anderen Standort. Wie schnell man da wieder online ist, liegt an der...
Hi, welches OS hast du?
Ich persönlich nutze die 0.1.285er Virtio Version nicht, da es da Bugs vor allem mit Server 2025 gibt.
Ich habe das Phänomen bei 2-3 VMs Win11 und Server 2025 nach einer Migration von vSphere gesehen, da hat es...
Der Scheduler versucht das schon optimal zu machen.
Also neue LUNs für PVE erzeugen und per LVM nutzen.
Also am besten zuerst Treiber installieren mit meinem iso...
Lese mal die definition von Inkrementell. Das Inkrementell bezieht sich auf die Speicherung der Daten und die Datenmenge.
Die Dirty Bitmap ist ein Zusatzfeatures, damit Inkrementell schneller geht, aber ändert nichts an der Speicherung.
Nur weil...
Er liest die VMware .vmx Datei aus und schlägt vor was da drin steht. Schau dir deine Konfigurationen der VMs unter vSphere an. Das ist vSphere Default.
Hier wirfst du ganz viele Sachen durcheinander.
Bei einem 2 Sockel Server, hast du 2 Sockel...
Hi, ich verstehe nicht was da nicht inkrementell ist.
Wenn man klassische Backupsysteme von Früher anschaut, da wurde bei jedem inkrementellen Backup alles gelesen.
Was du meinst ist die Dirty Bitmap, die das inkrementelle Sichern beschleunigt...
Das bringt ja nix, weil man dann kein shared Storage mehr hat.
Veeam ist nicht auf eine Diskbasierte Snapshotfunktion angewiesen, also schön klassisch LVM shared nutzen und das läuft auch mit Veeam.
Ich persönlich nutze Veeam nur noch Agent...
Ich würde beim Flashsystem lieber auf NVMe over FC gehen, dann sparst du dir auch die extra Multipath Konfiguration, da das bei NVMe schon im Protokoll integriert ist.
Da muss ich widersprechen. Wenn man mit dem Design von Ceph vertraut ist, weiß man, dass im Worst Case auf nur eine OSD zugegriffen wird.
Bei kleineren DB VMs ist so eine SAS SSD sehr schnell ein Flaschenhals.
Da die SAS SSDs eh die teuersten...
Da Falk leider den Link zu seiner Methode für minimale Downtime vergessen hat:
https://pve.proxmox.com/wiki/Migrate_to_Proxmox_VE#Attach_Disk_&_Move_Disk_(minimal_downtime)
Dazu hat er auch mal einen Vortrag gehalten...
Nein, hier geht es nicht ums Forum sondern dass falsche Fakten da stehen. Ganz einfach.
Dann verlinke das nächste Mal einfach das offizielle Wiki, da steht es auch korrekt.