ZFS Volume defekt nach DD Clone

Draconix

New Member
Oct 22, 2022
2
0
1
Darin waren 2x 600GB Platten als Raid1 verbaut, welche an ihr Lifetime
Ende kommen - für Das Stammsystem.

Nun wollte ich, Kraft meiner Wassersuppe, neue Platten einsetzen. Backup
dieses Raids wurde immer mit DD gemacht, auch auf einen anderen Rechner.
Also diese Backups liegen vor.

Nun die neuen Platten in den Rechner und mit DD das Image wieder
aufgespielt. Soweit so gut. Der Rechner bootet in Grub und bootet
weiter. Bis dann der Punkt kommt, an dem er das ZFS Volume booten will.

Dort bricht ab und sagt:

pool.png

und bringt mich auf die initramfs commandline. Mit der Flag -f oder -F
sagt er es liege ein I/O Error vor.

Ich lasse gerade mit zpool import -X rpool -F die Platte nochmal suchen.

Gibt es sonst noch einen Tipp, wie ich an die Daten in diesem Pool
komme?
Es gibt zwar noch einen zweiten Server, auf denen das selbe System
gespiegelt wird, dieses wird aber nur einmal im Monat gemacht. Zum 15.
liegt also nun auch wieder vier Wochen zurück.

Für die Zukunft: Wie kann ich ein ZFS Volume sichern um später darauf
wieder ohne Probleme zugreifen zu können? Wäre da ein rsync auf die
Verzeichnissstruktur die bessere Wahl gewesen? Wie kann ich dies in
Zukunft vermeiden?
 
Last edited:
Guck dir mal die "zfs send" and "zfs receive" Befehle an. Damit kannst du deine datasets/zvols inkl. snapshots in eine Datei sichern oder direkt zwischen Pools des selben oder verschiedenen Rechnern kopieren.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!