ZFS Pool, nicht mehr automatisch geladen?

gueniepr

Member
Nov 23, 2021
39
0
11
74
Hallo,
ich habe gestern die Updates eingespielt Kernel 6.8.4 und ZFS Updates.

Auch mit dem alten Kernel jetzt das Problem.

Seit dem wird EIN ZFSpool nicht mehr automatisch geladen und damit meine VM's nicht mehr gestartet?

Ich schaffe es noch mit "zpool import vmhost" den zfspool zu importieren, aber ich muß dann alle VM's dann wieder NEU starten?

Wie schaffe ich es, dass der 3. zfspool wieder richtig beim beim booten erkannt wird?

Es ist ein HP DL-380, der bist zum letzten Update brav gearbeitet hat?

Danke für Eure Hilfe
PS: Wenn ich was an Log's oder so beibringen kann, gerne
 
Hmm, hatte ich bisher nicht.
Wie sind denn die Palttennamen vergeben?

/dev/sdX oder dev/nvmexn1

ODER

über /dev/disk/by-id/<name>

Evtl. mit zpool status nachsehen, ober noch ein zpool upgrade notwendig ist.
 
Wenn es importiert wurde (vmhost) verhält sich das ganze wieder "normal" ist aber so kein Zustand :-(.
zpool list
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTRO
OT
rpool 928G 29.6G 898G - - 0% 3% 1.00x ONLINE -
vmdata 3.62T 67.1G 3.56T - - 0% 1% 1.00x ONLINE -
vmhost 928G 48.2G 880G - - 14% 5% 1.00x ONLINE -


Anscheinend werden die SSD's per /dev/disk/by-id/ata......... eingebunden

Was kann ich noch Helfen / machen

Danke Günther
 
bitte "journalctl -b", "zpool list -v" und "pveversion -v" posten bzw. attachen
 
Ich hoffe alles richtig gemacht zu haben
 

Attachments

  • journal.txt
    388.2 KB · Views: 4
  • pveversion.txt
    1.7 KB · Views: 0
  • zpool.txt
    1.6 KB · Views: 2
Code:
Apr 13 14:37:17 bbs systemd[1]: Starting zfs-import@vmhost.service - Import ZFS pool vmhost...
Apr 13 14:37:17 bbs zpool[1483]: cannot import 'vmhost': more than one matching pool
Apr 13 14:37:17 bbs zpool[1483]: import by numeric ID instead
Apr 13 14:37:17 bbs systemd[1]: zfs-import@vmhost.service: Main process exited, code=exited, status=1/FAILURE
Apr 13 14:37:17 bbs systemd[1]: zfs-import@vmhost.service: Failed with result 'exit-code'.

hast du vielleicht in einer VM auch einen pool namens "vmhost" angelegt? oder mit anderen disks?

was sagt denn

"zpool import"?
 
Nein das ganze passiert erst seit dem letzten Update (kernel, zfs), seit da kann der pool nicht mehr automatisch geladen werden, da auf dem pool alle VM's laufen startet NICHTS mehr

mit
zpool import vmhost

kann ich den pool importieren und die VM's wieder starten?

Ist nicht gerade das gelbe vom Ei :-(

wo liegt der Ausweg ...

DANKE
 
der fehler oben sagt recht eindeutig - waehrend dem booten sieht ZFS mehrere pools mit dem namen "vmhost", und weiss daher nicht welcher davon importiert werden soll.

kannst du vielleicht mal den output von "zpool import -d /dev/disk/by-id" und "lsblk" posten?
 
ja, mir kommt vor da hat sich nichts verändert ?
Mit welchen "Tricks" könnte man das reperieren?

zpool import -d /dev/disk/by-id
no pools available to import
 

Attachments

  • lsblk.txt
    2.2 KB · Views: 4
Woher nimmt das Teil auf einmal verschiedene "vmhost" Informationen, wo sind die gespeichert usw.
Ich bin ein Laie für solche Sachen :-(.

Frage!: die vmdata ist ziemlich groß (HD's zfs-mirror 4T), könnte man versuchen die VM's dorthin zu verschieben, die vmhost zu löschen und neu anzulegen (SSD's zfs-mirror 1T) und dann wieder retour?

Kann das Proxmox?

Wo könnte man da nachlesen damit so was klappt.

Für jede Hilfe dankbar
Günther
 
Woher nimmt das Teil auf einmal verschiedene "vmhost" Informationen, wo sind die gespeichert usw.
das steht direkt in den disks drin
Frage!: die vmdata ist ziemlich groß (HD's zfs-mirror 4T), könnte man versuchen die VM's dorthin zu verschieben, die vmhost zu löschen und neu anzulegen (SSD's zfs-mirror 1T) und dann wieder retour?
ich glaub nicht dass das was bringt. wir muessen eher der quelle auf den grund kommen ;)

koenntest du vielleicht noch "blkid" output nachliefern?

sonst waere dann noch ein ansatz, die "zfs-import@" unit anzupassen dass sie uns direkt beim import versuch ausgibt, was zfs sieht..
 
Kann ich ;-)

das mit zfs-import@ klingt schon sehr technisch ob ich dazu in der Lage bin ?
Ich hoffe mit Deiner Hilfe schaffen wir es ;-)
 

Attachments

  • blkid.txt
    4 KB · Views: 2
wenn du "systemctl edit zfs-import@" eingibst, und dann folgenden inhalt zwischen die markierungen schreibst:

Code:
[Service]
ExecStartPre=-/sbin/zpool import -d /dev/disk/by-id -o cachefile=none%

sollte beim naechsten reboot im journal noch mehr stehen (naemlich die info, welche pools zum import bereit stehen)
 
nachdem reboot kannst du dann mit "systemctl revert zfs-import@" das ganze wieder rueckgaengig machen (bitte das journal dann hier posten, hoffentlich hilft uns das die ursache zu finden)
 
Ich hoffe ich mache alles richtig, nano hat diesen Fehler ausgegeben ob das ganze abgespeichert wurde werdet Ihr dann sehen ?

Editing "/etc/systemd/system/zfs-import@.service.d/override.conf" canceled: temporary fi
le is empty.
Reload daemon failed: Transport endpoint is not connected

Ich werde mich dann an ein reboot wagen und hoffen ich bringe das Teil wieder hoch, sonst geht gar nichts mehr (DNS)
 
So, hoffe alles richtig gemacht zu haben und die neuen Log's' bringen "Erhellung"

Wenn noch was fehlt Bitte melden.

DANKE
 

Attachments

  • journal1.txt
    240.7 KB · Views: 1
nein, das hat wohl nicht geklappt (der fehler oben klingt so als haettest du im editor nicht gespeichert, sondern ihn einfach beendet?)

du kannst auch einfach den content den ich oben gepostet hab in "/etc/systemd/system/zfs-import@.service.d/override.conf" packen (den ordner "/etc/systemd/system/zfs-import@.service.d" musst du vielleicht mit mkdir "/etc/systemd/system/zfs-import@.service.d" erst anlegen).
 
Das ganze war auch etwas komisch, hat auf irgend einen Link verwiesen?

Na dann auf ein Neues, Ich kann Dir noch anbieten mit TrustDesk auf meinen Arbeitsrechner zu kommen, als letzte Version wenn ich wirklich schon zu blöd bin ;-)
 
So habe es versucht, ob diesmal die RICHTIGEN Log's dabei sind, ich hoffe es?
 

Attachments

  • journal2.txt
    244 KB · Views: 1
ja, das schaut schon mal gut aus.

Code:
Apr 18 11:07:19 bbs zpool[1476]:    pool: rpool
Apr 18 11:07:19 bbs zpool[1476]:      id: 1713440617792719201
Apr 18 11:07:19 bbs zpool[1476]:   state: UNAVAIL
Apr 18 11:07:19 bbs zpool[1476]: status: The pool was last accessed by another system.
Apr 18 11:07:19 bbs zpool[1476]:  action: The pool cannot be imported due to damaged devices or data.
Apr 18 11:07:19 bbs zpool[1476]:    see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-EY
Apr 18 11:07:19 bbs zpool[1476]:  config:
Apr 18 11:07:19 bbs zpool[1476]:         rpool                       UNAVAIL  insufficient replicas
Apr 18 11:07:19 bbs zpool[1476]:           mirror-0                  UNAVAIL  insufficient replicas
Apr 18 11:07:19 bbs zpool[1476]:             wwn-0x5000c500e4c073b5  UNAVAIL  invalid label
Apr 18 11:07:19 bbs zpool[1476]:             wwn-0x5000c500e4c04b65  UNAVAIL  invalid label
Apr 18 11:07:19 bbs zpool[1476]:    pool: vmdata
Apr 18 11:07:19 bbs zpool[1476]:      id: 465814978413465949
Apr 18 11:07:19 bbs zpool[1476]:   state: ONLINE
Apr 18 11:07:19 bbs zpool[1476]:  action: The pool can be imported using its name or numeric identifier.
Apr 18 11:07:19 bbs zpool[1476]:  config:
Apr 18 11:07:19 bbs zpool[1476]:         vmdata                                ONLINE
Apr 18 11:07:19 bbs zpool[1476]:           mirror-0                            ONLINE
Apr 18 11:07:19 bbs zpool[1476]:             ata-ST4000NM000A-2HZ100_WS23W617  ONLINE
Apr 18 11:07:19 bbs zpool[1476]:             ata-ST4000NM000A-2HZ100_WS23W5S8  ONLINE
Apr 18 11:07:19 bbs zpool[1476]:    pool: vmhost
Apr 18 11:07:19 bbs zpool[1476]:      id: 8701483229619532701
Apr 18 11:07:19 bbs zpool[1476]:   state: UNAVAIL
Apr 18 11:07:19 bbs zpool[1476]: status: The pool was last accessed by another system.
Apr 18 11:07:19 bbs zpool[1476]:  action: The pool cannot be imported due to damaged devices or data.
Apr 18 11:07:19 bbs zpool[1476]:    see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-EY
Apr 18 11:07:19 bbs zpool[1476]:  config:
Apr 18 11:07:19 bbs zpool[1476]:         vmhost                      UNAVAIL  insufficient replicas
Apr 18 11:07:19 bbs zpool[1476]:           mirror-0                  UNAVAIL  insufficient replicas
Apr 18 11:07:19 bbs zpool[1476]:             wwn-0x5001b444a5673752  UNAVAIL  invalid label
Apr 18 11:07:19 bbs zpool[1476]:             wwn-0x5001b444a5673ebe  UNAVAIL  invalid label
Apr 18 11:07:19 bbs zpool[1476]:    pool: vmhost
Apr 18 11:07:19 bbs zpool[1476]:      id: 13422559004719791388
Apr 18 11:07:19 bbs zpool[1476]:   state: ONLINE
Apr 18 11:07:19 bbs zpool[1476]:  action: The pool can be imported using its name or numeric identifier.
Apr 18 11:07:19 bbs zpool[1476]:  config:
Apr 18 11:07:19 bbs zpool[1476]:         vmhost                                ONLINE
Apr 18 11:07:19 bbs zpool[1476]:           mirror-0                            ONLINE
Apr 18 11:07:19 bbs zpool[1476]:             ata-SD_Ultra_3D_1TB_22282T450307  ONLINE
Apr 18 11:07:19 bbs zpool[1476]:             ata-SD_Ultra_3D_1TB_22282T455206  ONLINE

das mim rpool ist okay, der wird schon in der initrd phase anders importiert. vmdata interesiert uns auch nicht (der scheint ja nur einmal auf und ist importiertbar). jetzt bleibt also vmhost, der 2x erkannt wird, einmal ganz unten mit state online, mit den beiden richtigen disks. und einmal mit state unavail und anderen IDs.

kannst du vielleicht mal "ls -lha /dev/disk/by-id" machen, und nochmal "lsblk" aber als "lsblk -o +WWN"?
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!