ZFS Volume defekt nach DD Clone

Draconix

New Member
Oct 22, 2022
2
0
1
Darin waren 2x 600GB Platten als Raid1 verbaut, welche an ihr Lifetime
Ende kommen - für Das Stammsystem.

Nun wollte ich, Kraft meiner Wassersuppe, neue Platten einsetzen. Backup
dieses Raids wurde immer mit DD gemacht, auch auf einen anderen Rechner.
Also diese Backups liegen vor.

Nun die neuen Platten in den Rechner und mit DD das Image wieder
aufgespielt. Soweit so gut. Der Rechner bootet in Grub und bootet
weiter. Bis dann der Punkt kommt, an dem er das ZFS Volume booten will.

Dort bricht ab und sagt:

pool.png

und bringt mich auf die initramfs commandline. Mit der Flag -f oder -F
sagt er es liege ein I/O Error vor.

Ich lasse gerade mit zpool import -X rpool -F die Platte nochmal suchen.

Gibt es sonst noch einen Tipp, wie ich an die Daten in diesem Pool
komme?
Es gibt zwar noch einen zweiten Server, auf denen das selbe System
gespiegelt wird, dieses wird aber nur einmal im Monat gemacht. Zum 15.
liegt also nun auch wieder vier Wochen zurück.

Für die Zukunft: Wie kann ich ein ZFS Volume sichern um später darauf
wieder ohne Probleme zugreifen zu können? Wäre da ein rsync auf die
Verzeichnissstruktur die bessere Wahl gewesen? Wie kann ich dies in
Zukunft vermeiden?
 
Last edited:
Guck dir mal die "zfs send" and "zfs receive" Befehle an. Damit kannst du deine datasets/zvols inkl. snapshots in eine Datei sichern oder direkt zwischen Pools des selben oder verschiedenen Rechnern kopieren.