CPU Typ Host generell migrierbar?

Computerboss

New Member
Nov 29, 2023
24
3
3
Guten Mittag zusammen,

ich habe mich viel mit den Einstellungen von VMs beschäftigt und auch verschiedene CPU Typen getestet.
Am besten soll ja immer Host sein, das kann ich bestätigen. Nun frage ich mich, wenn ich auf meinem Intel NUC mit N97 eine Ubuntu VM mit CPU Typ Host erstelle und sichere ob ich das Backup unter einem System mit AMD Ryzen Prozessor wiederherstellen und auch den CPU Typ Host verwenden kann?
Ist im Backup irgendwo gespeichert dass eine Intel CPU der Host type ist oder wird das beim Hochfahren sozusagen der VM mitgegeben?

Beides ist ja X86 architektur, daher würde ich da generell kein problem sehen oder?

Habt Ihr Erfahrungen damit einen Restore auf einem anderen System mit unterschiedlichen CPUs durchzuführen bei der Gast Einstellung CPU Typ Host?

Viele Grüße und einen schönen Tag euch :)
 
die kombination wird zum absturz der vm führen.
cpu-typ host kannst du nur zwischen hosts mit identischer cpu-architektur migrieren, also z.b. von alderlake zu alderlake oder von zen 3 zu zen 3.
wenn du es zwischen verschiedenen plattformen machst stirbt die vm und du musst sie neu starten.
 
Da liegt ein Missverständnis vor, es geht mir um ein Backup, welches ich wiederherstellen möchte. Also keine Live Migration.
Die VM würde ich ausschalten, ein Backup erstellen und das auf einem anderen System Importieren.
Aber die Systeme haben beide andere CPU Hertseller Quelle Intel Ziel AMD. Die VM hat den CPU Typ Host.
 
Guten Mittag zusammen,

ich habe mich viel mit den Einstellungen von VMs beschäftigt und auch verschiedene CPU Typen getestet.
Am besten soll ja immer Host sein, das kann ich bestätigen. Nun frage ich mich, wenn ich auf meinem Intel NUC mit N97 eine Ubuntu VM mit CPU Typ Host erstelle und sichere ob ich das Backup unter einem System mit AMD Ryzen Prozessor wiederherstellen und auch den CPU Typ Host verwenden kann?
Ist im Backup irgendwo gespeichert dass eine Intel CPU der Host type ist oder wird das beim Hochfahren sozusagen der VM mitgegeben?

Beides ist ja X86 architektur, daher würde ich da generell kein problem sehen oder?

Habt Ihr Erfahrungen damit einen Restore auf einem anderen System mit unterschiedlichen CPUs durchzuführen bei der Gast Einstellung CPU Typ Host?

Viele Grüße und einen schönen Tag euch :)
Live migrieren wird nix, aber so wie du schreibst, willst du nur restoren. Das geht natürlich immer. Die meisten Syteme machen selbst oder wollen noch einmal einen Reboot und das war es. Ganz Früher (Windows 2000/2003) musste man manchmal noch die Speziellen AMD Treiber installieren, um alle Features nutzen zu können. Wenn du ein Museum betreibst und damit rumspielst musst du etwas aufpassen. ;)
 
  • Like
Reactions: Computerboss
Live migrieren wird nix,
Das dachte ich mir, ist aber auch garnicht schlimm :)

aber so wie du schreibst, willst du nur restoren.
Jein, also generell geht es mir um entweder bei einem Ausfall auf eine Maschine umzuziehen oder aber auch im Falle von mehr Leistung etc. eine Migration auf ein anderes System. Also Ja geht um Backup Restore ich habe es als Migration bezeichnet, da es algemein die Frage ist für mich also nicht nur im Desaster Fall sondern auch wenn ich einfach umziehen möchte. Aber war vielleicht etwas unglücklich, dass man dann eher erstmal an Live Migration denkt :)

Gute zu wissen, dass man früher etwas beachten musste aber heute nicht mehr, genau das meinte ich :)
Hardware ist recht neu also N97 ist ein NUC und sonst habe ich noch ein Ryzen 5800X System.

Super, dass keine Probleme zu erwarten sind :)
 
Du kannst sogar ZFS Replikation nutzen und VMs geplant oder per HA zwischen verschiedenen CPUs wechseln lassen. Nur halt immer mit Downtime und Reboot.
 
  • Like
Reactions: Computerboss
Ah ok das klingt gut!
Ich bin noch am überlegen welches Dateisystem ich nehmen soll.
Standardmäßig ist das ja LVM-Thin.

ZFS soll ja im allegemeinen stabiler und besser sein was die Datenintegrität angeht.

Auf meinem NUC habe ich allerdings keinen ECC RAM würdest du mir trotzdem generell ZFS empfehlen?

Grüße
 
Auf meinem NUC habe ich allerdings keinen ECC RAM würdest du mir trotzdem generell ZFS empfehlen?
Ja, definitiv. Der Mythos hält sich hartnäckig.

Live migration geht zwar nicht mit host zwischen AMD/Intel, dafür aber mit z.B. x86-64-v2-AES dem kleinen gemeinsamen Nenner. Es kann allerhöchstens sein, dass sich die Uhrzeit etwas verschiebt, aber das ist nach einem ntp-sync dann auch wieder passend.
Und was live geht, geht dann auch "nicht" live. ;)
Backuppen und restoren geht auch mit host meist problemlos, die VM einmal rebooten nachdem sich alles berappelt hat und dann passt es.
 
  • Like
Reactions: Johannes S
ZFS soll ja im allegemeinen stabiler und besser sein was die Datenintegrität angeht.
Ja, so ist es. Für mich ist klar, dass ZFS für den Aspekt $xyz besser ist. Für etliche Werte von xyz.

Auf meinem NUC habe ich allerdings keinen ECC RAM würdest du mir trotzdem generell ZFS empfehlen?
Ja. ECC ist zweirangig. ECC ist "nur" das Tüpfelchen auf dem "i".


Einige Hinweise in englischer Sprache: https://forum.proxmox.com/threads/f...y-a-few-disks-should-i-use-zfs-at-all.160037/


Einziger Wermutstropfen: billige SSDs verschleißen schneller --> gute SSDs sind Pflicht. ("Enterprise class" mit PLP.)
 
Ah ok das klingt gut!
Ich bin noch am überlegen welches Dateisystem ich nehmen soll.
Standardmäßig ist das ja LVM-Thin.

ZFS soll ja im allegemeinen stabiler und besser sein was die Datenintegrität angeht.

Auf meinem NUC habe ich allerdings keinen ECC RAM würdest du mir trotzdem generell ZFS empfehlen?

Grüße
Übrigens LVM-Thin Pool und ZFS Pool sind Block devices. PVE arbeitet bevorzugt mit Block Devices statt Dateisystemen. Ich hoffe der Input hilft dir beim weiter Denken und planen.
 
Ja, definitiv. Der Mythos hält sich hartnäckig.
Also du würdest ZFS devinitiv empfehlen aber was genau meinst du mit Mythos? Dass man ZFS nur bei ECC nutzen sollte?

x86-64-v2-AES dem kleinen gemeinsamen Nenner
Ich müsste mal schauen ob ich mir das aufgeschrieben hatte, welcher CPU typ hohe Performance lieferte ich meine es war kvm64 oder qemu64. Bei einigen gab es erhebliche Performance einbußen.

Backuppen und restoren geht auch mit host meist problemlos, die VM einmal rebooten nachdem sich alles berappelt hat und dann passt es.
Ok, super dann weiß ich Bescheid :)

$xyz besser ist. Für etliche Werte von xyz.
Das verstehe ich leider nicht, was genau meinst du damit?

Ja. ECC ist zweirangig. ECC ist "nur" das Tüpfelchen auf dem "i".
Ah ok, ich dachte das ECC generell immer stark zu bevorzugen ist bei Servern.

Trotzdessen kann man ja auch verschiedenen Datenbanken auf Raspberrys laufen lassen oder Home Assistant was ja auch super läuft.

Vielen Dank, werde ich mri mal anschauen, zur not mit DEEPL :)

Einziger Wermutstropfen: billige SSDs verschleißen schneller --> gute SSDs sind Pflicht. ("Enterprise class" mit PLP.)
Ah ok, ja das geht dann schn ins Geld Power Loss Protection haben ja nur bessere SSDs aber Danke dir für den Hinweis!
Was würde bei einer Consumer SSD ohne PLP bei einem Stromausfall passieren? ZFS nicht mehr lauffähig im schlimmsten Fall?
Könnte man statt teurer SSDs auch eine USV nehmen?


Übrigens LVM-Thin Pool und ZFS Pool sind Block devices. PVE arbeitet bevorzugt mit Block Devices statt Dateisystemen. Ich hoffe der Input hilft dir beim weiter Denken und planen.
Danke dir für die Rückmeldung!
Hmm ich verstehe leider nicht genau was du damit meinst. Geht es um Dateideduplizierung?

Wie ist es eigentlich wenn ich eine VM auf ZFS mit 100GB Platte erstelle wird das direkt belegt oder ist das wie LVM-Thin, dass das dynamisch ist?
Das ist auch nochmal ein spannender Punkt. Klar es kann zu überprovisionierung kommen aber hat auch Vorteile :)
 
  • Like
Reactions: mr44er
Das verstehe ich leider nicht, was genau meinst du damit?
Es gibt mehrere Fähigkeiten, durch die ZFS denen klassischer Systeme überlegen ist. Alle sind diskutierbar, je nachdem, mit welchem konkreten Filesystem plus Volumemanager plus Anwendungsfall man ZFS vergleicht, aber es gibt: bessere Skalierbarkeit, endlose Erweiterbarkeit im laufenden Betrieb, dynamisches Quotamanagement, integrierte Verwaltung von Volumes und Datasets ein einem System, integriertes Rechtemanagemen (hier ungenutzt), transparente Kompression, Redundanzen in verschiedenen Varianten, "billige" Snapshots, Replikation, optionale integrierte Funktionen wie SLOG, Cache und De-duplizierung (nur manchmal interessant). Wahrscheinlich habe ich noch einiges vergessen...

Ah ok, ich dachte das ECC generell immer stark zu bevorzugen ist bei Servern.
Ja, ist er. In jedem System. Und vollkommen unabhängig vom verwendeten Filesystem! Ich argumentiere nur gegen das Detail "ZFS braucht ECC".

Was würde bei einer Consumer SSD ohne PLP bei einem Stromausfall passieren? ZFS nicht mehr lauffähig im schlimmsten Fall?
Es landen möglicherweise vollkommen inkonsistente Daten auf der Festplatte, also insgesamt kein stimmiger Zustand. Ich hatte das noch nie, aber vermutlich ist das Resultat (beim nächsten Starten) nicht vorherzusagen.

Könnte man statt teurer SSDs auch eine USV nehmen?
Die Antwort auf diese Frage ist mir gerade nicht klar. Auf den ersten Blick: ja. Sofern die Kiste mit dem Notstrom sauber herunterfahren kann, ist dieses konkrete Risiko ja eliminiert.

Tatsächlich ist die Sicherung gegen Stromausfall aber nur einer der beiden Hauptaspekte bei den SSDs. Der andere Faktor ist schlicht Performance. SSDs mit PLP sind um ein Vielfaches schneller. Sie können Schreibvorgänge bereits als "ist erledigt" zurückmelden, obwohl dies genau genommen nicht stimmt. Und zwar ohne Risiko!
 
Also du würdest ZFS devinitiv empfehlen aber was genau meinst du mit Mythos? Dass man ZFS nur bei ECC nutzen sollte?
Genau, der Mythos: ZFS muss ECC-RAM bekommen, damit "keine Fehler" bei Korrektur geschrieben werden. ECC ist nur die Kirsche auf der Sahne und der anzustrebende Luxus, aber wenn das Board ECC nunmal nicht kann, ist es trotzdem nicht schädlich ZFS ohne ECC zu benutzen.

Ich müsste mal schauen ob ich mir das aufgeschrieben hatte, welcher CPU typ hohe Performance lieferte ich meine es war kvm64 oder qemu64. Bei einigen gab es erhebliche Performance einbußen.
kvm64 und qemu64 sind die langsamsten.
 
Was würde bei einer Consumer SSD ohne PLP bei einem Stromausfall passieren? ZFS nicht mehr lauffähig im schlimmsten Fall?
Es landen möglicherweise vollkommen inkonsistente Daten auf der Festplatte, also insgesamt kein stimmiger Zustand. Ich hatte das noch nie, aber vermutlich ist das Resultat (beim nächsten Starten) nicht vorherzusagen.
Bei Consumer SSDs wird der DRAM nur als Lesecache genutzt, damit nichts kaputt geht. Damit wenigstens etwas Performance kommt, werden dann z.B. bei einer TLC SSD die Tripple Zellen wie eine SLC beschrieben als Cache. Danach die Daten auf TLC umkopiert. Somit verschleißen die Zellen viel schneller.
Könnte man statt teurer SSDs auch eine USV nehmen?
Die Antwort auf diese Frage ist mir gerade nicht klar. Auf den ersten Blick: ja. Sofern die Kiste mit dem Notstrom sauber herunterfahren kann, ist dieses konkrete Risiko ja eliminiert.

Tatsächlich ist die Sicherung gegen Stromausfall aber nur einer der beiden Hauptaspekte bei den SSDs. Der andere Faktor ist schlicht Performance. SSDs mit PLP sind um ein Vielfaches schneller. Sie können Schreibvorgänge bereits als "ist erledigt" zurückmelden, obwohl dies genau genommen nicht stimmt. Und zwar ohne Risiko!
Das bringt nichts, außer du aktivierst manuell den Schreibcache auf den SSDs. Das ist trotzdem nicht empfohlen, weil auch bei einem Absturz m Schlimmsten Fall die kompletten Daten korrupt sind.
Was Consumer SSDs beschleunigen kann, ist ein Raid Controller mit Batteriecache, nur dann ist nix mit ZFS Raid und Selfhealing, etc.
 
Es gibt mehrere Fähigkeiten, durch die ZFS denen klassischer Systeme überlegen ist.
Vielen herzlichen Dank dir für die ausführliche Erklärung, das hilft mri weiter und klingt sehr gut!

Ja, ist er. In jedem System. Und vollkommen unabhängig vom verwendeten Filesystem!
Das stimmt, nur damit lassen sich 1 Bit Fehler korrigieren und 2 Bit Fehler erkennen.

Ich argumentiere nur gegen das Detail "ZFS braucht ECC".
Verstehe das klingt ja schonmal gut, dass man kein ECC zwingend braucht.


Es landen möglicherweise vollkommen inkonsistente Daten auf der Festplatte, also insgesamt kein stimmiger Zustand. Ich hatte das noch nie, aber vermutlich ist das Resultat (beim nächsten Starten) nicht vorherzusagen.
Ok, das klingt sehr ungünstig und in jedem Fall zu vermeiden.

Tatsächlich ist die Sicherung gegen Stromausfall aber nur einer der beiden Hauptaspekte bei den SSDs. Der andere Faktor ist schlicht Performance. SSDs mit PLP sind um ein Vielfaches schneller. Sie können Schreibvorgänge bereits als "ist erledigt" zurückmelden, obwohl dies genau genommen nicht stimmt. Und zwar ohne Risiko!
Habe mich ein bisschen eingelesen und verstehe, dass es großen Sinn macht eine SSD mit PLP zu kaufen.
Leider gibt es sehr wenig Auswahl und diese sind deutlich teurer :(
Die Frage ist ob man ZFS auch anders konfigurieren kann, da hatte ich was gelesen, dass erst dann das ok kommt, das ist glaube das was du sagst. Jedoch soll die Performance schlechter sein. Die Frage ist nur wie sehr leidet die Performance also wie kann ich mir das vorstellen. Wenn ich das abstelle kann ich dann 1 VM auf einer SSD laufen lassen bei einer PLP SSD mit aktiviertem Cache dann 5?

Genau, der Mythos: ZFS muss ECC-RAM bekommen, damit "keine Fehler" bei Korrektur geschrieben werden. ECC ist nur die Kirsche auf der Sahne und der anzustrebende Luxus, aber wenn das Board ECC nunmal nicht kann, ist es trotzdem nicht schädlich ZFS ohne ECC zu benutzen.
Danke dir.

kvm64 und qemu64 sind die langsamsten.
Oh okey, dann evrwechsel ich irgendwas :(


Das bringt nichts, außer du aktivierst manuell den Schreibcache auf den SSDs. Das ist trotzdem nicht empfohlen, weil auch bei einem Absturz m Schlimmsten Fall die kompletten Daten korrupt sind.
Was Consumer SSDs beschleunigen kann, ist ein Raid Controller mit Batteriecache, nur dann ist nix mit ZFS Raid und Selfhealing, etc.
Also komme ich bei ZFS nicht drum herum PLP SSDs zu nehmen.

Jetzt muss ich nochmal ein paar weitere Fragen stellen entschuldigt bitte.

1. Kann ich - und macht es Sinn - Proxmox auf auf einer SSD mit PLP mit ZFS zu installieren? Klappt ZFS auch gut mit einem Laufwerk?
2. Gleiche Frage Single SSD PLP für VMs?
3. Brauche ich für HDDS mit Zraid dann einen Hardware RAID Controller um nicht in Probleme zu laufen?

Würde ich mit LVM-Thin sehr viel schlechter fahren?

Viele Grüße und ein schönes Wochenende euch :)
 
Habe mich ein bisschen eingelesen und verstehe, dass es großen Sinn macht eine SSD mit PLP zu kaufen.
Leider gibt es sehr wenig Auswahl und diese sind deutlich teurer :(
Klar sind die teurer, Faustregel: you get what you pay for. Tip: gebrauchte sind billiger, und vom Fachhändler auch mit Garantie zu bekommen.

Die Frage ist ob man ZFS auch anders konfigurieren kann, da hatte ich was gelesen, dass erst dann das ok kommt, das ist glaube das was du sagst. Jedoch soll die Performance schlechter sein. Die Frage ist nur wie sehr leidet die Performance also wie kann ich mir das vorstellen. Wenn ich das abstelle kann ich dann 1 VM auf einer SSD laufen lassen bei einer PLP SSD mit aktiviertem Cache dann 5?
Die Guten erlauben einfach mehr Operationen pro Sekunde (IOPS). Und das schlägt sich direkt in der wahrgenommen Geschwindigkeit nieder. Die garantierten IOPS sind den Datenblättern zu entnehmen und als Vergleichsmaßstab geeignet.

Wenn man nur eine VM hat, die vielleicht nur wenige Daten schreibt, merkt man das natürlich nicht. Aber üblicherweise hat man "ein paar wenige" bis möglicherweise "mehrere Dutzend" VMs gleichzeitig laufen - und dann merkt man das (je nach laufenden Applikationen) deutlich.
 
Kann ich - und macht es Sinn - Proxmox auf auf einer SSD mit PLP mit ZFS zu installieren? Klappt ZFS auch gut mit einem Laufwerk?
Das funktioniert alles auch mit Billig-SSDs. Aber die verschleißen schneller und kacken ab, wenn mehrere VMs gleichzeitig IOPS abrufen wollen. Beides ist lahm und unbefriedigend. Ohne PLP klappts auch super, bis dann mal ein Stromausfall das Dateisystem zerlegt. Alles schon vorgekommen und dann rächt sichs, wenn man am falschen Ende gespart hat. Guten Kram gibts halt nicht billig und ich kann nur empfehlen, die vielen Ratschläge hier anzunehmen, wenn deine Daten dir was wert sind und du einen möglichst reibungslosen Betrieb haben willst.
 
  • Like
Reactions: Johannes S and UdoB
Ich habe z.B. alle meine SSDs gebraucht gekauft. Musst nur immer auf Formfaktor und Anschluss achten. Ich habe auch extrem günstig alte SSDs aus einem Enterprise Storage gekauft und die waren wegen dem Unixoiden OS bei dem Storage mit 520 Byte Sektor Size statt 512 Byte Sektor Size. Kann man aber ganz einfach umformatieren, dauert nur eine Weile bis die SSDs komplett überschrieben ist.
 
  • Like
Reactions: Johannes S
Guten Morgen und vielen Danke euch für die klasse Hilfe!

gebrauchte sind billiger, und vom Fachhändler auch mit Garantie zu bekommen.
Das ist ein guter Tipp, ich habe mal geschaut gehabt, viele sind ja mit DELL HPE geleabelte platten, kann ich die trotzdem an jedem PC nutzen oder nur in den Servern von Dell HP etc.?

Habt Ihr einen Tipp, wo man gute gebrauchte Enterprise SSDs bekommt?
Sollte man SMART Werte anfordern oder wird das bei Gewerblichen Käufern nicht klappen da diese den Aufwand nicht machen?

3. Brauche ich für HDDS mit Zraid dann einen Hardware RAID Controller um nicht in Probleme zu laufen?
Diese Frage hat mich auch beschäftigt, da ich durchaus auch HDDs einsetzen möchte.
Könnt Ihr mir da einen Rat zu geben?
Sollte ich hier auch auf ZFS setzen ohne RAID / HBA Controller?

Ich habe z.B. alle meine SSDs gebraucht gekauft.
Hast du eine konkrete Empfehlung für SSDs odereinen Shop?

Viele Grüße und ein schönes Wochenende euch :)