Festplatte kann nicht gelöscht werden

sunzi

New Member
Feb 10, 2025
9
2
3
Hallo zusammen,

seit dem Wochenende beschäftige ich mich mit einem HA Cluster, Proxmox selbst nutze ich seit Jahren.

Durch einige Anleitungen habe ich ein Cluster mit einem ZFS Laufwerk/Pool erstellt.
Mittlerweile aber herausgefunden das ich eher auf Ceph wechseln sollte.

Problem ist jetzt das ich meine ZFS SSD nicht mehr löschen kann.
Sobald ich sie formatieren möchte kommt eine Fehlermeldung.

1739168719327.png

1739168678990.png

HA ist noch nicht eingerichtet und im Rechenzentrum ist es auch kein Pool mehr.

1739168764721.png

Auf der SSD sind keine VM's, CT..., komplett leer

Wie kann ich die SSD in pve wieder komplett formatieren und neu zur Verfügung stellen?
 
Mittlerweile aber herausgefunden das ich eher auf Ceph wechseln sollte.

Sicher? Wieviele Nodes und wieviele Disks für OSDs hast du denn?

Meiner Auffassung nach, braucht man nennenswert mehr als 3 Nodes mit je einer Disk (was das formale und absolute Minimum ist), um einen dauerhaft stabilen Zustand zu bekommen, der dann auch tatsächlich einige Vorteile von Ceph zur Verfügung stellt.

Auf englisch: https://forum.proxmox.com/threads/fabu-can-i-use-ceph-in-a-_very_-small-cluster.159671/

Ansonsten ist ZFS-Replikation das sinnvollste Mittel der Wahl...

Viel Spaß!
 
  • Like
Reactions: sunzi
Du müsstest wenn /sda löschen/wipen, nicht nur die Partition /sda1.

Weder die SSD komplett noch die ZFS Partition kann formatiert werden. die kleine Partition (hab den Titel vergessen) konnte ich formatieren.
Dacht wenn das Laufwerk nicht geht mach ich die Partitionen Stück für Stück.

Wie kann ich /sda sicher entfernen/formatieren um es neu zu nutzen?
 
Sicher? Wieviele Nodes und wieviele Disks für OSDs hast du denn?

Meiner Auffassung nach, braucht man nennenswert mehr als 3 Nodes mit je einer Disk (was das formale und absolute Minimum ist), um einen dauerhaft stabilen Zustand zu bekommen, der dann auch tatsächlich einige Vorteile von Ceph zur Verfügung stellt.

Auf englisch: https://forum.proxmox.com/threads/fabu-can-i-use-ceph-in-a-_very_-small-cluster.159671/

Ansonsten ist ZFS-Replikation das sinnvollste Mittel der Wahl...

Viel Spaß!

Schwerpunkt hatte ich auf eine 2-Node Anleitung gesetzt, mit einer 3. Proxmox VM auf meiner Diskstation als reines Quorum, ohne VM/CT von Proxmox.

Proxmox Cluster aus 2 Nodes erstellen - Teil 3 Step-by-Step Proxmox HA Cluster

Je nachdem wie alles läuft neige ich dazu einen 3. PC anzuschaffen und die Proxmox VM auf der Diskstation zu ersetzen, oder sogar zu ergänzen, somit wären es 4 Nodes.
High Availability ist mir für unser SmartHome zwar wichtig aber auch nicht lebensnotwendig. Hauptsächlich damit, falls ich mal nicht zuhause bin, die Familie möglichst nichts von einem Ausfall bemerkt. Zumal je CT/VM 2 getrennte Backups laufen.

Wie bekomme ich die Festplatte wieder auf einen "neuen/leeren" Zustand?
Ceph war meine Idee um, sollten mal 3-4 Nodes da sein, nicht mehr umstellen zu müssen.
 
Last edited:
  • Like
Reactions: UdoB
Wie bekomme ich die Festplatte wieder auf einen "neuen/leeren" Zustand?
Naja, wie schon erwähnt: "wipen".

<node> --> Disks --> sda selektieren (nicht sda1).

Erst dann wird oben der Button "Wipe Disk" klickbar. Mach das.

Falls dann eine Fehlermeldung kommt --> hier posten.

---
Nachtrag: das "enablen" von "Wipe Disk" scheint bei mir inkonsistent zu sein, der Button ist tatsächlich auch klickbar, wenn ich eine Partition selektiere. Ich probiere jetzt aber nicht aus, was dann geschieht... ;-)
 
Last edited:
Vermutlich hast du unter ZFS den Pool noch nicht gelöscht?
Node > Disks > ZFS
 
OK, bin mit dem Fehler etwas weiter.
Hatte heute früh in Chrome alles versucht, auch Webseitendaten, Cache,... gelöscht.
Bin jetzt mal in Firefox da sehe ich alle nötigen Felder zum Löschen,...

Jetzt bin ich mal gespannt ob Ceph klappt
 
Manchmal sollte man auf andere hören :rolleyes: und manchmal sind vorbeugende Maßnahmen nicht ideal.

Ceph habe ich eingerichtet, die OSD's, Monitore und den Pool, die Gruppen für HA,...
Prinzipiell alles ok.

Mein Gedanke war, wie eingangs beschrieben.
Ich nutze direkt Ceph weil später vielleicht noch weitere Nodes dazu kommen und dafür ist ZFS vielleicht nicht ideal.
Vermutlich habe ich dabei zu weit voraus gedacht.
Wirklich stabil läuft es nicht mit den 2 Nodes und 3. nur als Quorum.

Daher dachte ich mir nun doch auf ZFS zu gehen und später vielleicht auf Ceph. Wer weiß wie es sich entwickelt und ob es überhaupt irgendwann mehr als 2 Nodes werden. Jetzt kann ich Ceph nicht mehr rückgängig machen, wollte es rückwärts "abbauen". Der Pool lässt sich nicht löschen.

Seit fast einer Stunde (OSD's sind gestoppt):
1739189597950.png

1739189611002.png

Hat jemand eine Idee für mein neues, selbst verschuldetes, Problem?
Ceph "rückabwickeln"

Wie bekomme ich Ceph wieder komplett von meinen Nodes?
Anleitungen habe ich gefunden, aber damit komme ich nicht weiter, es klappt nicht (z.B. Anleitung)
 
Last edited:
Hat jemand eine Idee für mein neues, selbst verschuldetes, Problem?
Ceph "rückabwickeln"
Tja... äh, nein - habe ich noch nicht gemacht.

Statt nun einfach "Dinge zu tun" würde ich recherchieren, angefangen mit https://pve.proxmox.com/pve-docs/chapter-pveceph.html

Und dort rückwärts vorgehen: Storage entfernen, Pools zerstören, OSDs entsorgen, Mon/Mgr entfernen. (Nur geraten!).

Viel Erfolg!
 
  • Like
Reactions: news
Danke für die ganze Hilfe!

Habe es mit dem Wiki und diversen Anleitungen hinbekommen Ceph zu deinstallieren.
Maßgeblich der hier, falls jemand auch mal vor dem Problem steht Anleitung

Ein einziges Problem ist nun noch zurück geblieben wozu ich keine Lösung finde.
Das "Ceph Cluster Drive" ist zurück geblieben
1739252518820.png
Ein CT den ich zu Testzwecken in das Ceph Cluster geschoben habe lässt sich nicht löschen oder bearbeiten.
War ein unwichtiger CT mit dem ich alles getestet hatte aber würde ihn gerne entfernen / "aufräumen".

1739252632493.png

Kennt jemand dazu einen Weg?
 
Den Datastore musst du unter Datacenter > Storage entfernen. Die Verwaiste LXC Konfiguration musst du manuell unter /etc/pve/… löschen.
 
  • Like
Reactions: RaBe and news
Dank euch allen, ihr habt mir sehr viel Arbeit erspart und Nerven geschont, jetzt klappt alles wie zuvor :cool:
 
  • Like
Reactions: UdoB