SSD -> ZIL ... ich bitte um Absolution....

tebse

Member
Jun 22, 2018
43
0
11
53
Hallo liebe Profis,

eine Noob-Frage: ich habe mich gewagt meine mit cfdisk geleerte SSD (120 GB) als ZIL zu definieren:
War das richtig so? Hätte ich das besser anders machen sollen oder den Platz sinnvoller nutzen können?

Danke und Gruss
Thorsten

> zpool status
pool: rpool
state: ONLINE
scan: none requested
config:

NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
sda2 ONLINE 0 0 0
sdb2 ONLINE 0 0 0
sdc2 ONLINE 0 0 0

> zpool add rpool log /dev/sdd

> zpool status
pool: rpool
state: ONLINE
scan: none requested
config:

NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
sda2 ONLINE 0 0 0
sdb2 ONLINE 0 0 0
sdc2 ONLINE 0 0 0
logs
sdd ONLINE 0 0 0
 
Einen so großen ZIL benötigst du eigentlich nie, da er alle 5 Sekunden eh geflusht wird. Hast du viele sync-schreibende Anwendungen und merkst das ZIL überhaupt?
 
Hi,

keine Ahnung, wie gross sollte der denn sein? Und war es richtig, die Platte unformatiert / ohne File System einzubinden?
Könnte man die Platte teilen: eine Partition als SWAP und eine zweite als ZIL. Wenn ja, wie sollten die formatiert sein?

Und ja: mein erster Eindruck ist, es ist meiner meinung nach wesentlich schneller geworden. Das dürfte aber auch ein meinen VM-Guest liegen:
Einer davon ist ein File-Server in der Familie. Der hat 1 TB Daten, die er als Samba CIFS zur Verfügung stellt. Aus dieser Beobachtung denke ich, das FS, siehe oben, war egal.

Danke und Gruss
Thorsten
 
keine Ahnung, wie gross sollte der denn sein?

Ganz klar: "das kommt darauf an" :-D

Die meisten Anleitungen geben so 5 GB an, aber das ist eher "Durchschnitt für Viele". Genauere Berechnungen siehst du hier:
https://www.ixsystems.com/blog/why-zil-size-matters-or-doesnt/

Und war es richtig, die Platte unformatiert / ohne File System einzubinden?
Könnte man die Platte teilen: eine Partition als SWAP und eine zweite als ZIL. Wenn ja, wie sollten die formatiert sein?

Ja, kann man machen. Wenn die SSD kaputt geht verlierst du maximal 5 Sekunden Daten auf der Festplatte und der Rechner schmiert ab wenn Teile von Prozessen auf der SSD gelegen haben. Formatieren musst du nur die SWAP, der Rest wird 1:1 als Blockgerät an das ZFS weitergegeben (laut deiner Aufteilung dann /dev/sdd2)

Einer davon ist ein File-Server in der Familie. Der hat 1 TB Daten, die er als Samba CIFS zur Verfügung stellt. Aus dieser Beobachtung denke ich, das FS, siehe oben, war egal.

Wie groß das Ding ist, ist völlig egal. Wenn du nur liest brauchst du das ZIL nicht. Kannst ja "beim normalen Arbeiten" mal den zpool iostat nebenher laufen lassen, dort siehst du dann ob und wie oft der ZIL geschrieben wird.
 
Cool, danke für den Input.

Wie groß das Ding ist, ist völlig egal. Wenn du nur liest brauchst du das ZIL nicht.

Na ja, zu dem Zeitpunkt habe ich die Daten gerade von einem Physikalischen Server auf den Proxmox Guest gezogen ... da wurde schon reichlich geschrieben :)

Wie kriege ich den ZIL eigentlich aus dem Pool wieder raus, damt ich die Platte teilen kann?

Funktioniert das mit

zpool remove rpool log /dev/sdd

Muss ich da etwas beachten?

Gruss
Thorsten
 
Wie kriege ich den ZIL eigentlich aus dem Pool wieder raus, damt ich die Platte teilen kann?

Funktioniert das mit

zpool remove rpool log /dev/sdd

Muss ich da etwas beachten?

Sollte so klappen und sollte alles online machbar sein.

BTW: Du kannst dir Test-Pool in Dateien anlegen um alle ZFS-Dinge zu testen bevor zu sie am Produktivsystem ausprobierst.
 
Erledigt und hat geklappt. Ich habe es auf 25 G verkleitert. Warum? Kommentiere mal meine Überlegung:
In dem von Dir angegebenen Artikel geht es um ein NAS mit einer 1 GB Anbindung. Bei mir spielt sich das aber alles im "localhost" ab. Dort kenne ich die Übertragungsrate nicht. Also nehme ich eine "Hypothetische 10G Verbindung an" und kommt auf 5 - 6G. Zur sicherheit lege ich nochmal die Schippe "Faktor 5" drauf.

Zusätzlich habe ich 32G (entspricht meinem RAM) als SWAP formatiert (/dev/sdd2) und dem System zugewiesen.
Den wechsel habe ich mit
>swapoff -a
>swapon /dev/sdd2
bewerkstelligt. Zusätzlich habe ich den alten Swap in der fstab auskommentiert und den neuen Swap eingetragen. Das sollte also auch beim nächsten Systemstart funktionieren.

Danke für den Tip mit dem Test - hast Du dazu eine Anleitung?

Danke und Gruss
Thorsten

Edit: Hier übrigens das Ergebnis:

upload_2018-7-24_9-50-8.png
 
Last edited:
Danke für den Tip mit dem Test - hast Du dazu eine Anleitung?

Du benutzt als Geräte einfach absolute Pfade zu Dateien, die du vorher mit dd angelegt hast:

Code:
$ dd if=/dev/zero of=/tmp/zfs-test bs=1M count=1024
$ zpool create zfstest /tmp/zfs-test
$ zpool status zfstest
  pool: zfstest
 state: ONLINE
  scan: none requested
config:

    NAME             STATE     READ WRITE CKSUM
    zfstest          ONLINE       0     0     0
      /tmp/zfs-test  ONLINE       0     0     0

errors: No known data errors
$ zfs list zfstest
NAME      USED  AVAIL  REFER  MOUNTPOINT
zfstest    55K   976M    19K  /zfstest
$ df -h | grep /zfstest
zfstest                       976M       0  976M    0% /zfstest

Bei komplizierten Tests verwendest du mehrere Dateien, am besten durchnummeriert.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!