ZFS Pool, nicht mehr automatisch geladen?

Was mich irritiert ist, das Teil lief Monate ohne Probleme auch einige reboots hat es überlebt und bei den letzten Updates auf einmal dieses Problem? Woher nimmt es auf einmal eine andere Konfiguration ?
 

Attachments

  • ls.txt
    4 KB · Views: 2
  • lsblk1.txt
    3.2 KB · Views: 2
okay, das ist wirklich seltsam (weil die WWN links zeigen ja auf dieselben disks!)

koenntest du noch

zdb -l /dev/sde
zdb -l /dev/sde1
zdb -l /dev/sde9


zdb -l /dev/sdf
zdb -l /dev/sdf1
zdb -l /dev/sdf9

machen und den output hier posten? danke!
 
Du mußt ja wirklich ein Profi sein :), damit Du damit umgehen kannst. Ich bin schon lange raus, ZFS ist erst seit Proxmox ein Thema :-(.
 

Attachments

  • sde.txt
    1.2 KB · Views: 1
  • sde1.txt
    1.6 KB · Views: 1
  • sde9.txt
    100 bytes · Views: 1
  • sdf.txt
    1.2 KB · Views: 2
  • sdf1.txt
    1.6 KB · Views: 1
  • sdf9.txt
    100 bytes · Views: 1
okay, das bringt jetzt langsam licht ins dunkel..

die beiden disks waren schonmal anders partitioniert und hatten auch einen zpool namens vmhost drauf - sh. sde.txt/sdf.txt (partition 3, andere hostid, ... vielleicht ein ueberbleibsel von einem aelteren experiment?)

davon sind jetzt teilweise noch label ueber die ZFS verwirren.. eventuell wurde der pool frueher mittels cache file importiert (dann werden nur die disks/partitionen die beim letzten import verwendet worden sind angeschaut), durch ein update vor kurzem wird jetzt der explizite zfs-import@ import zuerst probiert und der schlaegt fehl.

die sauberste loesung waere diese labelreste zu entfernen, was aber potenziell schwierig ist nachdem du ja quasi "ueberlappend" deinen echten pool hast.. also hier waere ein ausweg wohl doch das von dir vorgeschlagene pool komplett leerraeumen (uebersiedeln auf vmdata), dann den pool entfernen, die disk wipen/labelclear drauf aufrufen, sicherstellen das keine labelreste mehr drauf sind, dann zpool neu anlegen und wieder zurueck uebersiedeln.
 
OK, also doch das Update :-(, ich hatte bevor ich das ganze mit Secureboot neu installiert habe, weil ich das Upgrade nicht hinbekommen habe, ALLE Disks mit wipe bearbeitet, aber anscheinend sind auf diesen Platten Reste geblieben ? Wie mache ich es am besten, mit FDISK damit alles verschwindet wipe genügt anscheinend nicht!

Also das ganze wieder von vorne ;-)

Ich Danke Dir für Deine Arbeit und Hilfe war ein schwierige Geburt.

Ich werde jetzt Lernen müssen wie man die Partitionen umzieht oder alles Sichern und nachher neu installieren hoffentlich werden dann nicht die Fehler mitgenommen?

DANKE Günther
 
die holzhammer methode waere einfach einmal die ganze platte mit nullen ueberschreiben (dauert bisschen ;)). alternativ wuerde auch noch

wipefs & zpool labelclear auf jede partition einzeln und dann auf die platte als ganzes hoffentlich ausreichen. das "zdb" kommando sollte aufschluss darueber geben, ob noch label gefunden werden (wiederum - auf alle partitionen einzeln und auf die platte als ganzes).
 
Leider hat das alles nichts genützt ? Ich glaube schön langsam es liegt an den SSD's ich werde mal schauen ob ich zwei andere auftreibe ? (Geld) Das witzige dabei, bei einer Neu Installation, ich kann vmhost (ZFS) anlegen und es wird auch eingehängt, aber wenn ich dann noch vmdata einhänge wird vmhost wieder ausgehänt? Liegt das irgendwie an den Namen?
Aber lange Rede .... Es funktioniert einfach nicht mehr....
Dabei ergibt sich die Frage, kann man irgendwie den restore Vorgang so manipulieren damit das Ganze wieder richtig eingespielt wird (also das System auf eine SSD (zfs) und die Daten auf eine Große HD (zfs) und nicht wie jetzt alles auf große HD

Danke für Antworten
Günther
 
also wenn du deine daten auf andere disks schaufelst und alle involvierten SSDs einmal komplett ueberschreibst kann kein altes label mehr da sein, ausser die platten sind defekt und die label sind an einer stelle die lesbar, aber nicht schreibbar ist..

Dabei ergibt sich die Frage, kann man irgendwie den restore Vorgang so manipulieren damit das Ganze wieder richtig eingespielt wird (also das System auf eine SSD (zfs) und die Daten auf eine Große HD (zfs) und nicht wie jetzt alles auf große HD

ich bin mir nicht ganz sicher was du damit meinst - welcher restore vorgang? prinzipiell kannst du dir aussuchen wo deine gast volumes und backups etc liegen ;)
 
Ich versuche es besser zu beschreiben ;-)
Alter Server und Backup in der config von dem Backup steht für die Partitionen
zfspools:

scsi0: vmhost:vm-203-disk-0,cache=writeback,iothread=1,size=70G
scsi1: vmdata:vm-203-disk-0,cache=writeback,iothread=1,size=300G

wobei vmhost eine SSD ist zfs-Mirror
und vmdate eine 4T HD auch zfs-Mirror

Das alles funktioniert bei einer Neuinstallation Prima und funktioniert auch bei gleicher Grundkonfiguration!

Nur wenn ich wie oben beschrieben auf einmal keine vmhost mehr anlegen kann und ich die Namen wechseln muss zb. in
xmhost
xmdata

Dann habe ich bei einem restrore nur die Auswahl xmhost oder xmdata und alle "Partitionen" werden auf ein ZFS Pool geschrieben! Das funktioniert auch nur wollte ich das ganze wieder trennen.

Darum die Frage kann man das ganze wieder verschieben / trennen oder die restore Config anpassen damit die neuenZFS Pools benutzt werden?

Das ganze von einem uralten Neuling von Proxmox ;-)

Günther
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!