[SOLVED] ZFS Raid1 auflösen und eine Platte an anderer Stelle mounten.

mabox

Member
Feb 26, 2024
63
2
8
Hallo Zusammen,
ich habe zwei große 12TB HDD Platten in meinem Proxmox eingebunden mit ZFS und RAID1 am Mountpunkt /zfs/vm. Das "vm" ist ein Directory, "Datacenter" - "Storage" - "Directory".
Ich möchte jetzt gerne eine Platte ausbauen und woanders verwenden. Eine Platte reicht mir aktuell da es "nur" ein Datengrab wird bzw. Daten mit niedrieger Prio und wo ich absolut auch kein RAID1 dafür benötigen würde..
Ich möchte nun gerne folgendes tun. Das RAID1 quasi "auflösen" so das es nur noch eine Platte ist und die verbliebenen Platte anschließend woanders mounten, z.B. /hdd und dort wieder das Directory "vm", also /hdd/vm.
Geht das ohne die Daten zuvor woanders hinzuverschieben? Weil das halt doch eine Weile dauern würde. Einfach eine Platte ziehen ist vermutlich möglich aber das RAID1 sollte ja aus dem System herausgkonfiguriert werden denke ich.

Hat mir jemand Tipps dafür?
 
Naja, du kannst eine Disk im laufenden Betrieb vom Mirror entfernen und damit den Mirror auflösen und die verbleibende einzelne Disk enthält dann weiterhin die Daten. Siehe "zpool detach" Befehl: https://openzfs.github.io/openzfs-docs/man/master/8/zpool-detach.8.html

Bin aber nicht sicher, was da ZFS dann mit der entfernten Disk macht, sprich ob da dann weiterhin noch Daten drauf sind.
 
Last edited:
  • Like
Reactions: mabox
Wow, vielen Dank für Deine schnelle Antwort. Ob auf der entfernten Platte noch Daten drauf sind oder nicht wäre nicht schlimm, die wird sowieso formatiert werden.
Wenn ich eine Platte über den Weg entferne, wird die verbliebene dann automatisch zu einer "Single Disk" oder meckert womöglich das System die ganze Zeit das ein Platte im Mirror fehlt?
Weißt Du auch noch wie ich den Mountpoint der verbliebenen Platte ändere um das Directory nachher z.B. nicht mehr unter /zfs/vm sondern unter /hdd/vm ist? Wie man es in Linux in der Shell macht ist es mir klar aber ich denke man sollte es irgendwie über die Proxmox Gui machen?
 
Formatiere die Platte doch einfach über die GUI, da wird die auch gleich als Datastore eingebunden.
 
Wenn ich eine Platte über den Weg entferne, wird die verbliebene dann automatisch zu einer "Single Disk" oder meckert womöglich das System die ganze Zeit das ein Platte im Mirror fehlt?
Nein, das wird dann zu einem Single Disk Pool. Und ZFS meckert nicht, genau für den Einsatzzweck wurde ja der Befehl eingebaut (neben 3-Disk-Mirror zu 2-Disk-Mirror machen etc).
Aber nicht vergessen, dass du mit einer Disk keine Bit Rot Protection mehr hast (nur noch Detection). ZFS kann also nur noch meckern, dass da deine Daten zerschossen sind und du die aus einem deiner Backups wiederherstellen solltest. Aber ZFS kann nichts mehr reparieren.
Weißt Du auch noch wie ich den Mountpoint der verbliebenen Platte ändere um das Directory nachher z.B. nicht mehr unter /zfs/vm sondern unter /hdd/vm ist? Wie man es in Linux in der Shell macht ist es mir klar aber ich denke man sollte es irgendwie über die Proxmox Gui machen?
Wüsste ich jetzt nicht wie das geht über die webUI machen sollte.
 
Last edited:
  • Like
Reactions: mabox
Formatiere die Platte doch einfach über die GUI, da wird die auch gleich als Datastore eingebunden.
Wenn es irgendwie möchte ich erstmal versuchen ohne formatieren da es einige Zeit dauern wird die Daten wieder draufzukopieren. Also wenn ich einfach mit der verbleibenden Platte nahtlos weitermachen könnte wäre es mir am liebsten.

Nein, das wird dann zu einem Single Disk Pool. Und ZFS meckert nicht, genau für den Einsatzzweck wurde ja der Befehl eingebaut (neben 3-Disk-Mirror zu 2-Disk-Mirror machen etc).
Aber nicht vergessen, dass du mit einer Disk keine Bit Rot Protection mehr hast (nur noch Detection). ZFS kann also nur noch meckern, dass da deine Daten zerschossen sind und du die aus einem deiner Backups wiederherstellen solltest. Aber ZFS kann nichts mehr reparieren.

Wüsste ich jetzt nicht wie das geht über die webUI machen sollte.
Ok alles klar, vielen Dank für die Hilfe.
 
Wenn es irgendwie möchte ich erstmal versuchen ohne formatieren da es einige Zeit dauern wird die Daten wieder draufzukopieren. Also wenn ich einfach mit der verbleibenden Platte nahtlos weitermachen könnte wäre es mir am liebsten.
Die Platte welche du aus dem Mirror entfernst, kannst du nicht wieder als ZFS pool auf dem gleichen Host importieren. Die musst du in einem anderen Rechner nutzen oder platt machen.
 
  • Like
Reactions: mabox
Ich hab leider das Konzept noch nicht richtig verstanden. Hab bis jetzt immer alles über die GUI gemacht. Bin aber auch echt noch nicht lange dabei .... Eigentlich aber kann ich alles was z.B. zfs angeht oder Mountpunkte usw. in der Shell machen und in die Gui aktualisiert sich das? Im Prinzip kann ich meine Mountpunkte in der Shell richten, verschieben usw. und später über die Gui ein "Directory" drüber legen?

Z.B. Kann ich über die GUI einen ZFS Pool nicht umbenennen, könnte ich daher ja eigentlich in der Shell machen oder? Also bei Proxmox ist es ein Zusammenspiel zwischen Shell und Gui? Vielelicht Geschmacksache und manche machen alles über die Shell, kann ich es mir so vorstellen? :)
 
Last edited:
Eigentlich aber kann ich alles was z.B. zfs angeht oder Mountpunkte usw. in der Shell machen und in die Gui aktualisiert sich das? Im Prinzip kann ich meine Mountpunkte in der Shell richten, verschieben usw. und später über die Gui ein "Directory" drüber legen?
Ja. Das webUI kann echt nur die absoluten Basics. Darüber geht nicht einmal Dinge wie eine defekte Disk aus einem Mirror tauschen. Also wenn man ZFS nutzt, muss man sich schon über die "zpool" und "zfs" Befehle schlau machen, da man nicht um die CLI herum kommt.

Z.B. Kann ich über die GUI einen ZFS Pool nicht umbenennen, könnte ich daher ja eigentlich in der Shell machen oder?
Ja.
 
Besser ist es ZFS wie folgt zu nutzen:
Code:
zpool offline <pool> <device-id>
zpool detach <pool> <device-id>
 
  • Like
Reactions: mabox
Das ist völlig unsinnig!
Wir Admin arbeiten über eine Konsole, die GUI ist nur ein Beiwerk.
Fehler sind über die GUI schneller zu machen.
Über die Konsole kann man auch immer einen Trockenlauf machen, um zu überprüfen, ob die Parameter stimmen.
Man braucht auch immer noch weitere Programme, wie zfs, zpool, lsblk, cfdisk, fdisk, ls -la /dev/disk/by-id/ usw.
Es hängt immer vom Ziel der Anstregung ab.
Deshalb kenne die meisten auch keine SLOG (log), cache oder special device.
Oder ZFS-Parameter, die die Funktion verbessern können.
 
  • Like
Reactions: mabox
Ich bin tatsächlich auch lieber in der Konsole unterwegs aber ich weiß einfach noch zu wenig über Proxmox. Ob es Dinge gibt die zwingend über die Gui gemacht werden sollten. Was z.B. Proxmox spezifisch ist, vermutlich so Dinge wie "Directories" anlegen als Beispiel und welche egal sind ob man sie über Gui oder Shell macht....
 
Es gibt nichts, was man nicht auch rein über die CLI machen könnte. Im zweifelsfall geht alles, was das webUI kann auch über die API und die kann man z.B. per "pvesh" Befehl von der CLI bedienen.

Ich habe hier auch schon von blinden Admins gelesen, die 100% über die CLI tun, weil dad webUI nicht gerade toll ist, was die Barrierefreiheit bezüglich Screenreadern angeht.
 
Last edited:
  • Like
Reactions: mabox
Also soweit hab ich es glaub kapiert wie ich prinzipiell vorgehen muss um das Eingangsthema zu bearbeiten.
Noch kurz eine weitere Frage zu dem Ganzen:)
Ich versuche jetzt verzweifelt noch ein ZFS pool umzubenennen. Anscheinend gibt es ja mögich mit dem
Code:
zpool import
Befehl, dieser meint aber das es meine alten Pool Namen nicht gibt obwohl
Code:
zpool status
den genau so anzeigt. Also versuche ich gerade mit
Code:
zfs rename
und der widerum meint
Code:
"cannot create 'neuername': missing dataset name.
Also ich arbeite mich grad immer tiefer in zfs rein aber einfach mal so eine zfs pool umzubenennen ist wohl nicht so einfach.... wie z.B. lvrename :)Hat mir jemand einen Tipp wie man es korrekterweiße umbenennt? Ich lande im Netz immer wieder bei zpool import oder zfs rename, die beide nicht klappen wollen.
 
Pool exportieren und dann unter neuem namen importieren. Bei dem rpool aber halt schwierig, da PVE auf dem ja läuft (weshalb man da dann von einem Live Linux mit ZFS Support wie Debian booten müsste. Und bin nicht sicher, wie gut der Bootloader/initramfs dann mit dem anderen Namen klarkommen).
 
  • Like
Reactions: mabox
Danke. Es geht bei mir nicht um den rpool. Wäre einfach eine zusätzliche Platte bzw. zwei HDDs mit RAID1 die in einem eigenen pool sind. Da hätte ich gerne den Namen geändert aber zur Not kann ich ihn auch lassen.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!