Moin,
ich experementiere auf einer Maschine mit ZFS um ein wenig Gefühl für das System zu bekommen.
Ich verwende dafür folgende Konstellation:
CPU AMD Ryzen 2440G
32 GB RAM
HDD:
1x NVme für Host OS und einen local Store
1x Seagate IronWolf Pro 6GB
1x Seagate IIronWolf Pro 4GB
Die Platten habe ich bewußt in der 4 und 6 GB Version, um die Geschwindigkeiten vergleichen zu können.
Teste ich die Platten einzeln mit dd (oflag=direct) erhalte ich immer Schreibraten > 230 MB/s die Werte entsprechen in etwa den Herstellerangaben.
Jetzt habe ich einen zfs Pool manuell gebaut, da die Platten unterschiedlich groß sind vorher jeweils eine Partition in der gleichen Größe angelegt.
Mit pvesm add zfspool PVESTORE001 -pool zfs001 habe ich den Pool zugefügt.
Gehe ich direkt in /zfs001 und erzeuge eine Datei:
Erhalte ich einen Wert in der Größenordnung in dem ich ihn erwartet habe.
In einer VM ist der Wert aber mit ~226 MB/s deutlich geringer.
Die VM ist q&d mit scsi angelegt und ich habe auch sonst keine Einstellung gemacht.
Ein kopieren von Daten zwischen der localen NVme und dem Raid funktioniert auch recht performant, ohne das ich hier jetzt Messdaten habe.
ich experementiere auf einer Maschine mit ZFS um ein wenig Gefühl für das System zu bekommen.
Ich verwende dafür folgende Konstellation:
CPU AMD Ryzen 2440G
32 GB RAM
HDD:
1x NVme für Host OS und einen local Store
1x Seagate IronWolf Pro 6GB
1x Seagate IIronWolf Pro 4GB
Die Platten habe ich bewußt in der 4 und 6 GB Version, um die Geschwindigkeiten vergleichen zu können.
Teste ich die Platten einzeln mit dd (oflag=direct) erhalte ich immer Schreibraten > 230 MB/s die Werte entsprechen in etwa den Herstellerangaben.
Jetzt habe ich einen zfs Pool manuell gebaut, da die Platten unterschiedlich groß sind vorher jeweils eine Partition in der gleichen Größe angelegt.
Code:
zpool create -f -o ashift=12 zfs001 /dev/sda1 /dev/sdb1
Mit pvesm add zfspool PVESTORE001 -pool zfs001 habe ich den Pool zugefügt.
Gehe ich direkt in /zfs001 und erzeuge eine Datei:
Code:
root@PCEE-PC019:~# dd if=/dev/zero of=/zfs001/10GB count=10240 bs=1M oflag=direct
10240+0 Datensätze ein
10240+0 Datensätze aus
10737418240 bytes (11 GB, 10 GiB) copied, 18,6543 s, 576 MB/s
Erhalte ich einen Wert in der Größenordnung in dem ich ihn erwartet habe.
In einer VM ist der Wert aber mit ~226 MB/s deutlich geringer.
Die VM ist q&d mit scsi angelegt und ich habe auch sonst keine Einstellung gemacht.
Ein kopieren von Daten zwischen der localen NVme und dem Raid funktioniert auch recht performant, ohne das ich hier jetzt Messdaten habe.