Tausch einer ZFS Platte im HA eines nodes gegen eine Neue

Hannibal1987

New Member
Nov 23, 2023
4
0
1
Hallo zusammen,

ich habe heute die Aufgabe in Angriff genommen, eine laufende HDD ZFS-Platte (nicht boot platte, sondern eine Zweite) gegen eine frische SSD zu tauschen. Ich habe drei nodes, die drei nodes haben alle je eine zweite ZFS-Platte, die für die Replication innerhalb des HA zusändig sind. Es geht hier um Node 3.

Ich habe folgende herangehensweige gefunden:
https://kayomo.de/blog/zfs-festplatte-ersetzen-unter-proxmox/
Dieses Vorgehen wird auf etlichen Seiten und Foren beschrieben.

Mein Problem ist aber, dass das System mit der alten Platte läuft und der Pool vorhanden ist. Sobald ich die Platte gegen eine leere tausche und z.B.
zpool replace -f <pool> <old device> <new device>
oder
zpool status

ausführe, bekomme ich die Meldung: "no pools available".
In der Grafischen Oberfläche ist am Pool ein ? (unknown) zu erkennen.
Wenn ich wollte, könnte ich nun auf keinen neuen ZFS-Pool anlegen, da dieser bereits vergeben ist.

Bei eingebauter "alter" Festplatte wir der pool erkannt, der Status ausgegeben, der HA-Cluster ist zufrieden und das Failover funktioniert.
Was ist bei mir falsch, dass der Node mit dem Ausbauen der Festplatte den ZFS-Pool vergisst?
Ich kann nicht beide Platten gleichzeitig anschließen (die Alte und die Neue).

Meine Systeme sind exakt so aufgesetzt wie in diesem Video:
https://www.youtube.com/watch?v=FZnVmt_DvUk
 
Hallo,

zeig uns doch bitte zunächst den output von zpool status mit der alten HDD, sodass wir nachvollziehen können wie der ursprüngliche Zustand des pools ist. Handelt es sich womöglich nicht um einen mirror (RAID1) sondern um 2 vdevs im pool?
 
Ok, ich habe nun den gesamten Nachmittag gefummelt und recherchiert, 4Minuten nach dem Post kam mit die Erleuchtung.
Ich habe nun auf dem Node mit neuer Platte, eine neue ZFS angelegt und den Harken bei "Add Storage" rausgenommen.
Damit wird der vorhandene unbrauchbare Pool mit selbem Namen auf dem Node offenbar überschrieben und gut is.
 
Last edited:
Natürlich reiche ich den Status nach.
Für mich ist noch nicht geklärt, warum der überall beschriebene Ablauf bei mi nicht läuft.
Der Unterschied des RAID zu 2vdevs im pool bezogen auf das Problem ist mir nicht klar. Was in Raid ist und was es tut ist mir klar, ich kann eindeutig sagen, es ist nicht als Raid konfiguriert.

pool: HAStorage
state: ONLINE
config:

NAME STATE READ WRITE CKSUM
HAStorage ONLINE 0 0 0
ata-KINGSTON_SA400S37480G_50XXXXXXXXXXXXXF ONLINE 0 0 0

errors: No known data errors
 
Last edited:
ata-KINGSTON_SA400S37480G_50XXXXXXXXXXXXXF ONLINE 0 0 0
Das zpool hat nur eine disk, daher keinerlei Redundanz, daher ist auch das Pool nicht vorhanden, wenn die disk entfernt wird. Ein Tausch einer Platte ohne Datenverlust kann daher so nicht funktionieren. Folgender Link [0] liefert eine gute Einführung in die Konzepte von ZFS.

Falls die Daten nur von einem Pool auf das andere übertragen werden sollen, so bietet sich hier zfs send / zfs receive an [1,2]. Dazu müssen jedoch beide disks mit unterschiedlichen pools online sein.

[0] https://openzfs.github.io/openzfs-docs/Basic Concepts/index.html
[1] https://openzfs.github.io/openzfs-docs/man/v2.2/8/zfs-send.8.html
[2] https://openzfs.github.io/openzfs-docs/man/v2.2/8/zfs-receive.8.html
 
Danke für die Antwort.
Ich werde mir die Grundlagen nochmal reinziehen, danke für die Links.
Die Situation des Datenverlustes ist in meinem System aufgrund des HA-Clusters nicht so wild. Wenn ein System aussteigt, wird der Service anderweitig übernommen, die Daten wurden zuvor gesynct. Ok die Daten nach dem letzten Sync bis zum Ausfall wären weg. Auch das kann ich in meinem System vernachlässigen.
 
Danke für die Antwort.
Ich werde mir die Grundlagen nochmal reinziehen, danke für die Links.
Die Situation des Datenverlustes ist in meinem System aufgrund des HA-Clusters nicht so wild. Wenn ein System aussteigt, wird der Service anderweitig übernommen, die Daten wurden zuvor gesynct. Ok die Daten nach dem letzten Sync bis zum Ausfall wären weg. Auch das kann ich in meinem System vernachlässigen.
Das könnte dir auch weiter helfen. https://deepdoc.at/dokuwiki/doku.php?id=server_und_serverdienste:linux_zfs
 
  • Like
Reactions: Chris

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!