Hab noch was , welche Block Size würdest Du mir empfehlen? 16k ist voreingestellt, könnte die nachträglich nochmal geändert werden? In der VM läuft eine Nextcloud mit allem drum und dran, also File Synchronisation, Bilder/Video Upload. Denke für kleine Files wäre eine kleine Block Size besser, für die größeren Files wie z.B. Video eher eine größere? Denke fast 16k wäre dann ein guter Kompromis?Wenn du unter Datacenter > Storage > add einfach deinen ZFS Pool auswählst, einen Namen geben und am besten direkt Thin privisioning aktivieren.
Also ich weiß nicht, ich hab mal nur die root disk nach raw direkt in einen zfs pool migriert und mit dd read und write getestet.Kann ich den irgendwie prüfen wie aktuell meine Performance im Moment ist um irgendwie einen Anhaltspunkt zu bekommen wie gut oder schlecht sie ist?
dd if=/dev/zero of=/devsda bs=1G count=1 oflag=direct
1+0 records in
1+0 records out
1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,506055 s, 2,1 GB/s
dd if=/dev/sda of=/dev/null bs=1G count=1 iflag=direct
1+0 records in
1+0 records out
1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,662198 s, 1,6 GB/s
dd if=/dev/zero of=/devsda bs=1G count=1 oflag=direct
1+0 records in
1+0 records out
1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,515611 s, 2,1 GB/s
dd if=/dev/sda of=/dev/null bs=1G count=1 iflag=direct
1+0 records in
1+0 records out
1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,475817 s, 2,3 GB/s
create full clone of drive efidisk0 (svm:101/vm-101-disk-0.qcow2)
drive mirror is starting for drive-efidisk0
drive-efidisk0: Cancelling block job
drive-efidisk0: Done.
TASK ERROR: storage migration failed: block job (mirror) error: drive-efidisk0: Source and target image have different sizes (io-status: ok)
create full clone of drive efidisk0 (svm:101/vm-101-disk-6.raw)
TASK ERROR: storage migration failed: zfs error: cannot create 'spool/vm-101-disk-0': 'volblocksize' must be power of 2 from 512B to 16M
Also ich sehe da bei raw deutlich bessere Werte. 1,6GB/s zu 2,3GB/s.Also ich weiß nicht, ich hab mal nur die root disk nach raw direkt in einen zfs pool migriert und mit dd read und write getestet.
Keine Ahnung ob ich richtig teste aber mir kommt es so vor als wäre es mit raw schlechter.
qcow:
Code:dd if=/dev/zero of=/devsda bs=1G count=1 oflag=direct 1+0 records in 1+0 records out 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,506055 s, 2,1 GB/s dd if=/dev/sda of=/dev/null bs=1G count=1 iflag=direct 1+0 records in 1+0 records out 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,662198 s, 1,6 GB/s
raw:
Code:dd if=/dev/zero of=/devsda bs=1G count=1 oflag=direct 1+0 records in 1+0 records out 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,515611 s, 2,1 GB/s dd if=/dev/sda of=/dev/null bs=1G count=1 iflag=direct 1+0 records in 1+0 records out 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,475817 s, 2,3 GB/s
Zum EFI Disk migrieren muss eine VM immer ausgeschaltet sein.Die Zahlen beim qcow2 schwanken aber auch, manchmal schlechter wie bei raw aber halt auch hin und wieder besser. Die von raw sind meistens fast identisch.
Ich will ganz sicher nicht das letzte Bit rauskitzeln aber mich jetzt auch nicht verschlechtern. Vom Gefühl und Logik denke ich aber das raw schon die besser Wahl wäre.
EDIT:
Meine EFI Disk lässt sich nicht in den zfs pool migrieren.
Muss ich den pool wahrscheinlich nochmal neu anlegen mit einer anderen Block size?Code:create full clone of drive efidisk0 (svm:101/vm-101-disk-0.qcow2) drive mirror is starting for drive-efidisk0 drive-efidisk0: Cancelling block job drive-efidisk0: Done. TASK ERROR: storage migration failed: block job (mirror) error: drive-efidisk0: Source and target image have different sizes (io-status: ok)
EDIT:
Ich bekomme die EFI Disk nicht migriert.
Die Disk hat diese Parameter:
svm:101/vm-101-disk-0.qcow2.efitype=4m,pre-enrolled-keys=1,size=528K
Auf den ZFS Pool hab ich mittlerweile 1M eingestellt und dennoch erhalte ich diesen Fehler:
Jemand eine Idee?Code:create full clone of drive efidisk0 (svm:101/vm-101-disk-6.raw) TASK ERROR: storage migration failed: zfs error: cannot create 'spool/vm-101-disk-0': 'volblocksize' must be power of 2 from 512B to 16M
Dann hast du es falsch beschriftet. Das nur Write schneller ist und read identisch, bestätigt meine Vermutung, dass qcow nur wegen dem Cache schneller ist. Vermutlich bricht das aber deutlich ein wenn du ganz große Mengen schreibst.Hallo @Falk R.
die Werte die Du genannt hast gehören eigentlich zu qcow2.
Ich persönlich würde nicht mit so großen Blocksizes arbeiten, das gibt eine Menge Overhead. Kommt aber immer auf deine Daten an, wie die aussehen, weißt nur du.Wegen der EFI Migration:
Ist es dann egal welche Block size ich im ZFS Pool eingestellt habe? Die war auf 16k bisher, jetzt grad hab ich sie auf 1M.
Vielleicht lass ich sie auf 1M oder was denkst Du wäre ein Kompromiss für kleine und große Daten? In der VM läuft wie erwähnt eine Nextcloud.