ZFS: Festplatten identifizieren u.a.

digidax

Renowned Member
Mar 23, 2009
99
1
73
Hallo zusammen und eine Frage an die ZFS Spezialisten:

Wie identifiziert man unter ZFS die Position einer Festplatte?
Ich habe das so gelöst:

Code:
# zpool status -v rpool
  pool: rpool
 state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
        repaired.
  scan: scrub repaired 0B in 0 days 00:08:05 with 0 errors on Sun Oct 11 00:32:06 2020
config:

        NAME                                              STATE     READ WRITE CKSUM
        rpool                                             DEGRADED     0     0     0
          mirror-0                                        ONLINE       0     0     0
            scsi-36003005702306c0025ea3079135e3ac2-part3  ONLINE       0     0     0
            scsi-36003005702306c0025ea3079135e8cf5-part3  ONLINE       0     0     0
          mirror-1                                        DEGRADED     0     0     0
            scsi-36003005702306c0025ea3079135edf8f        FAULTED      7   334     0  too many errors
            scsi-36003005702306c0025ea3079135f3275        ONLINE       0     0     0
        spares
          sde                                             AVAIL
          sdf                                             AVAIL

errors: No known data errors

danach

Code:
# ls -l /dev/disk/by-id/scsi-36003005702306c0025ea3079135edf8f
lrwxrwxrwx 1 root root 9 Aug 31 15:44 /dev/disk/by-id/scsi-36003005702306c0025ea3079135edf8f -> ../../sdc

danach

Code:
# smartctl -a -d megaraid,1  /dev/sdc


smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.55-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate Barracuda 3.5
Device Model:     ST1000DM010-2EP102
Serial Number:    ZN1C95PF
LU WWN Device Id: 5 000c50 0c4010397
Firmware Version: CC46
User Capacity:    1,000,204,886,016 bytes [1.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Sun Oct 18 09:56:23 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

.......

Die Seriennummer ZN1C95PF steht bei mir außen auf den Laufwerkseinschüben.
Damit habe ich die defekte Platte identifiziert.

Frage 1: Ist diese Vorgehensweise so ok oder gibt es eine Bessere?

Frage 2: Bei den spares erscheinen diese als sde, sdf und nicht unter ihrer "by-id". Da die Vergabe dieser Device-Bezeichnungen nicht eindeutig ist, würde ich das ändern.
Die beiden spares waren bereits bei Übernahme des Systems so angelegt. Kann ich das ändern, indem ich diese entferne und dann wieder über ihrer disk/by-id zufüge?

Frage 3: Wie geht ZFS im Falle eines Festplattentausches mit dem Bootloader um, hier im Falles des Raid 10?
Dieser sollte auf den ersten beiden Platten liegen, welche wären das hier und würde eine spare auch den Bootloader übernehmen?

Code:
# zpool status -v rpool
  pool: rpool
 state: DEGRADED
status: One or more devices could not be used because the label is missing or
        invalid.  Sufficient replicas exist for the pool to continue
        functioning in a degraded state.
action: Replace the device using 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-4J
  scan: resilvered 8.32G in 0 days 00:08:06 with 0 errors on Sun Oct 18 10:06:10 2020
config:

        NAME                                              STATE     READ WRITE CKSUM
        rpool                                             DEGRADED     0     0     0
          mirror-0                                        ONLINE       0     0     0
            scsi-36003005702306c0025ea3079135e3ac2-part3  ONLINE       0     0     0
            scsi-36003005702306c0025ea3079135e8cf5-part3  ONLINE       0     0     0
          mirror-1                                        DEGRADED     0     0     0
            spare-0                                       DEGRADED     0     0     0
              scsi-36003005702306c0025ea3079135edf8f      UNAVAIL      7   334     0
              sde                                         ONLINE       0     0     0
            scsi-36003005702306c0025ea3079135f3275        ONLINE       0     0     0
        spares
          sde                                             INUSE     currently in use
          sdf                                             AVAIL

errors: No known data errors


Frage 4: Warum wird beim mirror-0 eine Partition (*-part3) verwendet, beim mirror1 nicht?

Vielen Dank,
Frank
 
Hi,
Frage 1: Ist diese Vorgehensweise so ok oder gibt es eine Bessere?
Ja ist ok.
Ich hoffe, dein MegaRaid ist ein HBA und kein Raid.
Es ist nicht empfohlen, ZFS mit einem Raidcontrollern zu betreiben, das macht Probleme.

Kann ich das ändern, indem ich diese entferne und dann wieder über ihrer disk/by-id zufüge?

Ja kann man so machen oder du veränderst die zfs.conf und erlaubst generell nur by-id
dazu kannst du /etc/default/zfs editieren und

Code:
ZPOOL_IMPORT_PATH="/dev/disk/by-id"
danach musst du rebooten

Dieser sollte auf den ersten beiden Platten liegen, welche wären das hier und würde eine spare auch den Bootloader übernehmen?
Nein da der nicht Teil von ZFS ist. Dafür ist part1 und part2 da.
Die müssen manual erstellt werden.
Siehe https://pve.proxmox.com/wiki/ZFS_on_Linux#_bootloader

Warum wird beim mirror-0 eine Partition (*-part3) verwendet, beim mirror1 nicht?
Siehe frage 3 ;-)
 
Ich hoffe, dein MegaRaid ist ein HBA und kein Raid.
Es ist nicht empfohlen, ZFS mit einem Raidcontrollern zu betreiben, das macht Probleme.

Es ist ein HBA mit RAID Funktionalität, welche aber nicht benutzt wird.
Die Festplattem sind als JBOD konfiguriert. Lt. Hersteller verhält sich dieser Adpter dann transparent.


Nein da der nicht Teil von ZFS ist. Dafür ist part1 und part2 da.
Die müssen manual erstellt werden.
Siehe https://pve.proxmox.com/wiki/ZFS_on_Linux#_bootloader

D.h. sollte die erste Platte im mirror-0 ausfallen, würde das System trotzdem noch booten.
Wie verhält sich dann ein Spare, wenn dieses einspringt?
Kümmert sich ZFS dann um die Partitionierung?

Vielen Dank, Frank

OT: die defekte Festplatte wurde im Rahmen der Garantie vom Hersteller ersetzt.
 
Last edited:
Es ist ein HBA mit RAID Funktionalität, welche aber nicht benutzt wird.
Die Festplattem sind als JBOD konfiguriert.
Das nennt man Raid und bleibt ein Raid.
Wie verhält sich dann ein Spare, wenn dieses einspringt?
Kümmert sich ZFS dann um die Partitionierung?
So wie du sie als spare eingebunden hast. Wie gesagt ZFS kümmert sich nicht darum.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!