Frage zu "Laufwerk verschieben" (raw/qcow2)

Dec 19, 2012
494
14
83
Hallo.
Kurze Frage -- wenn ich ein Laufwerk von einem "normalen" RAID-10-Pool auf einen ZFS-Pool per GUI verschiebe, wird aus einer qcow2-Datei eine raw-Datei. Mache ich es umgekehrt wird aus raw wieder qcow2.
Das scheint also so gewollt zu sein, oder? Leider benötigt das auf dem ZFS-Pool imho aber viel mehr Speicherplatz als auf dem RAID-10. Daher die Frage: Warum bzw geht's auch anders?
 
Einfsch die disk als scsi einbinden, Discard aktivieren und innerhalb der VM fstrim ausführen.
Nicht jeder storage unterstützt qcow2, die meisten aus dem eher Enterprise Bereich unterstützen nur raw images. Empfinde ich aber nicht wirklich als Nachteil.
 
Einfsch die disk als scsi einbinden, Discard aktivieren und innerhalb der VM fstrim ausführen.
Ok, gerade in der Hilfe die Option "Discard" (wieder)entdeckt. Da schließt sich dann aber direkt die nächste Frage an: Es hieß vor einiger Zeit immer, dass virtIO (in Kombination mit RAW) mehr Performance liefert als qcow2?! Hat sich das mittlerweile geändert? Alles zurück auf SCSCI?

Es ist ja nichts gegen RAW einzuwenden ... aber wenn ich richtig informiert bin, schluckt dann eine 500 GB Platte auch wirklich 500 GB auf dem ZFS-Pool. Overprovisioning ist dann nicht drin, oder??
 
Da schließt sich dann aber direkt die nächste Frage an: Es hieß vor einiger Zeit immer, dass virtIO (in Kombination mit RAW) mehr Performance liefert als qcow2?! Hat sich das mittlerweile geändert? Alles zurück auf SCSCI?

Da ich vServer an Endkunden vermiete, steht für mich die Einsparung möglicher Ressourcen im Vordergrund. Die Kunden heute sind nicht bereit für sämtliche Ressourcen die vollen Beträge zu zahlen, daher muss hier eine Mischkalkulation her. Einen Performance test habe ich nicht gemacht, eben aus dem Grund, dass virtIO und SATA kein Discard unterstützen, daher war es für mich gar keine Option.
Generell sollte aber SCSI immer noch etwas hinter virtIO hängen, so zumindest die generelle Aussage die man so liest. IDE und SATA würde ich nicht wirklich empfehlen.

Es ist ja nichts gegen RAW einzuwenden ... aber wenn ich richtig informiert bin, schluckt dann eine 500 GB Platte auch wirklich 500 GB auf dem ZFS-Pool. Overprovisioning ist dann nicht drin, oder??
Einfsch die disk als scsi einbinden, Discard aktivieren und innerhalb der VM fstrim ausführen.
Damit sollte das gelöst sein. Mit CEPH klappt es wunderbar, daher gehe ich davon aus, dass es bei ZFS ebenfalls klappt.
 
Sowohl Ceph als auch ZFS sind sogenannte Copy on Write Dateisysteme. Die legen Daten erst an wenn sie geschrieben werden. Das gleiche macht die qcow2 Datei, nur halt als Datei.
Wenn du die Festplatte der VM also noch ZFS migrierst, sollte das ZFS auch nur m it dem tatsächlich belegten Speicher belastet werden. Sollte das nicht der Fall sein, hilft tatsächlich fstrim.

Wichtig: Vor dem Wechsel auf virtio-scsi den Treiber installieren, sonst bootet die Maschine nicht mehr. Dazu einfach eine weitere kleine virtuelle HDD über den virtio SCSI Controller einhängen, Treiber installieren, Platte danach wieder löschen.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!