could not activate storage Datapool

Robkd4

Member
Jan 7, 2021
20
2
8
44
Hallo zusammen,

ich hatte meinen "Cluster" für ein paar Tage offline und nun musste ich feststellen das einer der Hosts einen Fehler Auswirft:

Code:
could not activate storage 'Datapool_pve2', zfs error: cannot import 'Datapool': one or more devices is currently unavailable

#zpool status

zeigt nur meine beiden Boot Platten an

123.JPG

unter disks wiederum alle Platten auch die 10TB Platten aus dem ZFS Pool Datapool_pve2

1234.JPG


Grüße
 
"zpool status" zeigt -wie du siehst- nur die nutzbaren Pools an. Versuch mal zpool import. Das listet importierbare Pools auf. man zpool-import zeigt Details zur Syntax.

Das Problem trat/tritt öfters auf, eigentlich müsste die Forumsuche hilfreiches finden.


PS: Doppelpostings sind hier nicht gerne gesehen: https://forum.proxmox.com/threads/could-not-activate-storage-datapool.148951/, auch wenn das hinsichtlich Deutsch/English plausibel erscheint.
 
Hallo zusammen,

in der Forensuche habe ich einige mit gleichen Problemen gefunden, das heißt für mich wieder ZFS ist nur für solche die sich wirklich tief mit der Materie auskennen.

Nun was hat meine Foren suche gebracht, viele Befehle viele outputs.

Erstmal checken was habe ich im System:

# lsblk -o tran,name,type,size,vendor,model,label,rota,phy-sec

Code:
TRAN   NAME   TYPE   SIZE VENDOR   MODEL                     LABEL    ROTA PHY-SEC
sata   sda    disk 111.8G ATA      Patriot Burst Elite 120GB             0     512
       ├─sda1 part  1007K                                                0     512
       ├─sda2 part     1G                                                0     512
       └─sda3 part 110.8G                                    rpool       0     512
sata   sdb    disk 111.8G ATA      Patriot Burst Elite 120GB             0     512
       ├─sdb1 part  1007K                                                0     512
       ├─sdb2 part     1G                                                0     512
       └─sdb3 part 110.8G                                    rpool       0     512
sas    sdc    disk     9T SEAGATE  ST10000NM011G                         1    4096
       ├─sdc1 part     9T                                    Datapool    1    4096
       └─sdc9 part    64M                                                1    4096
sas    sdd    disk     9T SEAGATE  ST10000NM011G                         1    4096
       ├─sdd1 part     9T                                    Datapool    1    4096
       └─sdd9 part    64M                                                1    4096
sas    sde    disk   9.1T SEAGATE  ST10000NM0096                         1    4096
       ├─sde1 part   9.1T                                    Datapool    1    4096
       └─sde9 part     8M                                                1    4096
sas    sdf    disk   9.1T SEAGATE  ST10000NM0096                         1    4096
       ├─sdf1 part   9.1T                                    Datapool    1    4096
       └─sdf9 part     8M                                                1    4096

Also Platten checken:

#smartctl -a /dev/sdX
sdc
sdd haben ne Menge Total errors corrected aber SMART status OK

sde
sdf keine fehler keine Probleme

Code:
.
.
=== START OF INFORMATION SECTION ===
Vendor:               SEAGATE
Product:              ST10000NM0096
Revision:             E005
Compliance:           SPC-4
User Capacity:        10,000,831,348,736 bytes [10.0 TB]
.
.
=== START OF READ SMART DATA SECTION ===
SMART Health Status: OK

Grown defects during certification <not available>
Total blocks reassigned during format <not available>
Total new blocks reassigned <not available>
Power on minutes since format <not available>
Current Drive Temperature:     29 C
Drive Trip Temperature:        60 C

Accumulated power on time, hours:minutes 2780:32
Manufactured in week 36 of year 2019
Specified cycle count over device lifetime:  50000
Accumulated start-stop cycles:  208
Specified load-unload count over device lifetime:  600000
Accumulated load-unload cycles:  998
Elements in grown defect list: 0

Vendor (Seagate Cache) information
  Blocks sent to initiator = 672124128
  Blocks received from initiator = 6951120
  Blocks read from cache and sent to initiator = 161930233
  Number of read and write commands whose size <= segment size = 324436
  Number of read and write commands whose size > segment size = 4

Vendor (Seagate/Hitachi) factory information
  number of hours powered up = 2780.53
  number of minutes until next internal SMART test = 48

Error counter log:
           Errors Corrected by           Total   Correction     Gigabytes    Total
               ECC          rereads/    errors   algorithm      processed    uncorrected
           fast | delayed   rewrites  corrected  invocations   [10^9 bytes]  errors
read:   83960401        0         0  83960401          0        344.128           0
write:         0        0         0         0          0          3.848           0

Non-medium error count:        0


journalctl -b

bringt protection errors, die ich leider nicht Interpretieren kann. Scheinen aber einen zusammenhang mit den SMART fehler zu haben.

Code:
Jun 15 10:54:08 pve2 kernel: mpt3sas_cm0: log_info(0x3112043b): originator(PL), code(0x12), sub_code(0x043b)
Jun 15 10:54:08 pve2 kernel: sd 6:0:1:0: [sdd] tag#5573 FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK cmd_age=0s
Jun 15 10:54:08 pve2 kernel: sd 6:0:1:0: [sdd] tag#5573 Sense Key : Illegal Request [current]
Jun 15 10:54:08 pve2 kernel: mpt3sas_cm0: log_info(0x3112043b): originator(PL), code(0x12), sub_code(0x043b)
Jun 15 10:54:08 pve2 kernel: sd 6:0:1:0: [sdd] tag#5573 Add. Sense: Logical block reference tag check failed
Jun 15 10:54:08 pve2 kernel: sd 6:0:1:0: [sdd] tag#5573 CDB: Read(32)
Jun 15 10:54:08 pve2 kernel: sd 6:0:1:0: [sdd] tag#5573 CDB[00]: 7f 00 00 00 00 00 00 18 00 09 20 00 00 00 00 00
Jun 15 10:54:08 pve2 kernel: sd 6:0:1:0: [sdd] tag#5573 CDB[10]: 90 83 ff ce 90 83 ff ce 00 00 00 00 00 00 00 01
Jun 15 10:54:08 pve2 kernel: protection error, dev sdd, sector 19396558448 op 0x0:(READ) flags 0x80700 phys_seg 1 prio class 0
Jun 15 10:54:08 pve2 kernel: sd 6:0:0:0: [sdc] tag#5578 FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK cmd_age=0s
Jun 15 10:54:08 pve2 kernel: sd 6:0:0:0: [sdc] tag#5578 Sense Key : Illegal Request [current]
Jun 15 10:54:08 pve2 kernel: sd 6:0:0:0: [sdc] tag#5578 Add. Sense: Logical block reference tag check failed
Jun 15 10:54:08 pve2 kernel: mpt3sas_cm0: log_info(0x3112043b): originator(PL), code(0x12), sub_code(0x043b)
Jun 15 10:54:08 pve2 kernel: sd 6:0:0:0: [sdc] tag#5578 CDB: Read(32)
Jun 15 10:54:08 pve2 kernel: sd 6:0:1:0: [sdd] tag#5663 FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK cmd_age=0s
Jun 15 10:54:08 pve2 kernel: sd 6:0:0:0: [sdc] tag#5578 CDB[00]: 7f 00 00 00 00 00 00 18 00 09 20 00 00 00 00 00
Jun 15 10:54:08 pve2 kernel: sd 6:0:1:0: [sdd] tag#5663 Sense Key : Illegal Request [current]
Jun 15 10:54:08 pve2 kernel: sd 6:0:0:0: [sdc] tag#5578 CDB[10]: 90 83 ff ce 90 83 ff ce 00 00 00 00 00 00 00 01
Jun 15 10:54:08 pve2 kernel: sd 6:0:1:0: [sdd] tag#5663 Add. Sense: Logical block reference tag check failed
Jun 15 10:54:08 pve2 kernel: protection error, dev sdc, sector 19396558448 op 0x0:(READ) flags 0x80700 phys_seg 1 prio class 0

zpool import -d /dev/disk/by-id
zeigt nun meinen Vermissten pool, nur wenn er hier Datapool statt Datapool_pve2 heisst, alle disks sind online können aber weiterhin nicht importiert werden.

Code:
pool: Datapool
     id: 14802351783531159193
  state: ONLINE
 action: The pool can be imported using its name or numeric identifier.
 config:

        Datapool                    ONLINE
          mirror-0                  ONLINE
            scsi-35000c500d9caf21f  ONLINE
            scsi-35000c500d9cb1553  ONLINE
          mirror-1                  ONLINE
            scsi-35000c500a6364483  ONLINE
            scsi-35000c500ae82d517  ONLINE

Also der Versuch import per ID
zpool import -f -d /dev/disk/by-id 14802351783531159193

Code:
cannot import 'Datapool': one or more devices is currently unavailable

Grüße
 
Last edited:
Und die vier Disks sind "alle"? Es gab keine SLOG/Cache/Whatever-Platten?

zpool import -f -d
Die von mir erwähnte man-page nennt noch "-F", nutzbar vielleicht einzeln und wohl auch in Kombination "-f -F -n -d".

Ich habe so etwas glücklicherweise noch nie gebraucht..., also alles von mir hierzu ist nur geraten...

Viel Glück
 
Last edited:
Und die vier Disks sind "alle"? Es gab keine SLOG/Cache/Whatever-Platten?


Die von mir erwähnte man-page nennt noch "-F", nutzbar vielleicht einzeln und wohl auch in Kombination "-f -F -n -d".

Ich habe so etwas glücklicherweise noch nie gebraucht..., also alles von mir hierzu ist nur geraten...

Viel Glück
zpool import -f -F -d /dev/disk/by-id 14802351783531159193

hats gebracht


Code:
# zpool status
  pool: Datapool
 state: ONLINE
  scan: scrub repaired 0B in 00:00:00 with 0 errors on Sun May 12 00:24:01 2024
config:

        NAME                        STATE     READ WRITE CKSUM
        Datapool                    ONLINE       0     0     0
          mirror-0                  ONLINE       0     0     0
            scsi-35000c500d9caf21f  ONLINE       0     0     0
            scsi-35000c500d9cb1553  ONLINE       0     0     0
          mirror-1                  ONLINE       0     0     0
            scsi-35000c500a6364483  ONLINE       0     0     0
            scsi-35000c500ae82d517  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
  scan: scrub repaired 0B in 00:00:22 with 0 errors on Sun May 12 00:24:23 2024
config:

        NAME                                                       STATE     READ WRITE CKSUM
        rpool                                                      ONLINE       0     0     0
          mirror-0                                                 ONLINE       0     0     0
            ata-Patriot_Burst_Elite_120GB_PBEIIBB2211184657-part3  ONLINE       0     0     0
            ata-Patriot_Burst_Elite_120GB_PBEIIBB2211183595-part3  ONLINE       0     0     0

errors: No known data errors
Code:

Verstehe ich irgendwie immer noch nicht. Aber naja.

Vielen Dank.
 
Last edited:
  • Like
Reactions: UdoB

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!