Zfs Pool Defekt

mpatzwah

Member
Dec 26, 2021
115
5
23
56
Hallo,
ist vermutlich ein dumme Frage, aber ich stelle Sie doch mal....
Ich habe einen ZFS Pool aus drei verschiedenen Platten erstellt. Eine scheint defekt zu sein. Jetzt ist mein ganzer Pool hin, oder ?
Und grmpf nein ich habe nicht gespiegelt, weil es eigentlich nur Testsysteme sind aber eines ist mir nun doch etwas wichtiger ...

Bonus Frage: Die Win VM die mir wichtig war hat zwei Platten verwendet (eine auf dem defekten ZFS Pool eine wo anders)
Ok ich habe ein 6 Wochen altes Backup von der Platte die auf dem ZFS Pool lag, die andere ist ja ok. Bekomme ich die beiden wieder verheiratet (trotz unterschied von 6 Wochen? (Laufwerk C ist auf ZFS, Laufwerk D auf der intakten Platte mit einer Datenbank und die hätte ich gerne wieder)

Danke
Marco
 
Ach und das sagt gdisk zur Platte ....
root@pve-1:~# gdisk /dev/sde GPT fdisk (gdisk) version 1.0.6 Warning! Read error 5; strange behavior now likely! Warning: Partition table header claims that the size of partition table entries is 0 bytes, but this program supports only 128-byte entries. Adjusting accordingly, but partition table may be garbage. Warning! Read error 5; strange behavior now likely! Warning: Partition table header claims that the size of partition table entries is 0 bytes, but this program supports only 128-byte entries. Adjusting accordingly, but partition table may be garbage. Partition table scan: MBR: not present BSD: not present APM: not present GPT: not present Creating new GPT entries in memory. Command (? for help): w Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING PARTITIONS!! Do you want to proceed? (Y/N): N Aborting write of new partition table.
##### Kann ich da Y machen, oder ist dann sicher alles hin ?

Danke Marco
 
Last edited:
zpool status zeigt was an? Bitte in [code][/code] Tags posten.
 
root@pve-1:~# zpool import pool: pve-zfs id: 1273292708435336083 state: UNAVAIL status: One or more devices contains corrupted data. action: The pool cannot be imported due to damaged devices or data. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-5E config: pve-zfs UNAVAIL insufficient replicas ata-SanDisk_SDSSDH3_4T00_21443U800514 ONLINE ata-ST4000DM000-1F2168_S301JJE2 UNAVAIL ata-TOSHIBA_HDWD130_3713VEBAS ONLINE

zpool status zeigt meinen gar nicht mehr an
 
Okay, ja so wie das ausschaut, ist der Pool so aufgebaut, dass er alle 3 Disks ohne Redundanz direkt verwendet. Viel Speicherplatz, aber sobald eine weg ist, ist der Pool kaputt.

Solange du die ata-ST4000DM000-1F2168_S301JJE2 nicht direkt wieder zum Laufen bekommst, war es das. Das alte Backup bringt dir nichts, außer vielleicht wenn du alle 3 mit dem gleichen Backup und somit den Daten von vor 6 Wochen verwendest.

In Zukunft würde ich den Pool dann immer so aufbauen, dass du Redundanz hast, entweder ein RAIDz oder mirror. Was du im Kontext von Proxmox VE und VM Storage am besten nimmst, ist in der Dokumentation mit Hintergründen erklärt.
 
wenn ich den MBR für die Platte neu schreibe wie oben im Screenshot ist das alles weg/leer ?
 
Ich seh zwar keinen Screenshot, aber wenn die Partitionstabelle wieder genau gleich ist, und die Disk sonst keine Probleme hat, könnte es klappen, dass ZFS wieder die richtigen Daten findet.
 
War mein Nachtrag von 13:08
Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING PARTITIONS!! Do you want to proceed? (Y/N): N Aborting write of new partition table.

hat mich nur etwas verwirrt
 
einen kleinen Teilerfolg habe ich erreicht. Also nochmal zur Wiederholung:
Ich hatte eine Win Maschine mit zwei Disks, eine war auf einem zfs-pool, der geschrottet wurde (Laufwerk C (mit Windows)
Davon hatte ich ein 6 Wochen altes Backup. Ich habe die betroffene Datei einzeln aus dem Backup ausgepackt und an eine andere (funktioniernde) Position auf dem Server geschoben, die conf Datei geändert, gestartet et voila, Maschine startet wieder und ich konnte kritische Dateien sichern)
Puuh ....
Danke für Eure Hilfe ...
 
Schön, dass das doch noch geklappt hat. Jetzt wäre dann ein guter Zeitpunkt sich mal durchzuringen und einen PBS aufzusetzen für automatische tägliche Backups, sowie darüber nachzudenken die einzelnen Disks und Raid0 abzuschaffen und durch was mit Parität zu ersetzen.
 
naja als totaler Proxmox Anfänger hab ich die GUI genommen für die ZFS Einrichtung. Wusste nicht dass man da eine Spiegelung eingeben konnte…
 
https://pve.proxmox.com/wiki/ZFS_on_Linux#_installation_as_root_file_system:
RAID0Also called “striping”. The capacity of such volume is the sum of the capacities of all disks. But RAID0 does not add any redundancy, so the failure of a single drive makes the volume unusable.
RAID1Also called “mirroring”. Data is written identically to all disks. This mode requires at least 2 disks with the same size. The resulting capacity is that of a single disk.
RAID10A combination of RAID0 and RAID1. Requires at least 4 disks.
RAIDZ-1A variation on RAID-5, single parity. Requires at least 3 disks.
RAIDZ-2A variation on RAID-5, double parity. Requires at least 4 disks.
RAIDZ-3A variation on RAID-5, triple parity. Requires at least 5 disks.

Du hast genau das eine gewählt, was als einziges keine Redundanz hat.

Abschnitt "ZFS RAID Level Considerations" ist auch lesenswert: https://pve.proxmox.com/wiki/ZFS_on_Linux#sysadmin_zfs_raid_considerations
 
naja als totaler Proxmox Anfänger hab ich die GUI genommen für die ZFS Einrichtung. Wusste nicht dass man da eine Spiegelung eingeben konnte…

Dass ein ZFS-Raid0/Stripe gar nicht über das WebGUI (da es hier um einen ZFS-Pool namens: pve-zfs und nicht: rpool geht, schließe ich den Installer mal aus) machbar ist, hattest du damals bereits festgestellt: [1] [2]. Ebenso dass ein ZFS-Raid1/Mirror(=Spiegel(ung)) sehr wohl möglich ist: [2]

Und ist ja nicht so, als wäre es vorher nicht bewusst gewesen: [3] :)

[1] https://forum.proxmox.com/threads/zfs-pool-wird-im-node-nicht-angezeigt.105038/#post-452238
[2] https://forum.proxmox.com/threads/migration-im-3-node-cluster.102041/#post-440108
[3] https://forum.proxmox.com/threads/zfs-pool-wird-im-node-nicht-angezeigt.105038/#post-452284
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!