Platten 'landen' nicht im ZFS-Pool, was kann ich machen?

@maze-m, das -f ist hier sicher — genau dafür ist es gedacht. ZFS meckert nur, weil es erkennt, dass die Zielplatte bereits im Pool ist. Da du dieselbe physische Platte durch sich selbst ersetzt (nur mit anderem Pfad), passiert den Daten nichts.

Aber: Du hast sdf als Whole-Disk hinzugefügt (ohne Partition), die anderen Mitglieder im Pool zeigen auch keine -part-Suffixe. Verwende daher den ID-Pfad ohne -part1:

Code:
# Prüfe erst welche IDs auf sdf zeigen (ohne Partition):
ls -la /dev/disk/by-id/ | grep "sdf$"

# Dann replace mit dem Whole-Disk-Pfad:
zpool replace -f Datengrab sdf /dev/disk/by-id/scsi-35000cca0727bb960

Danach mit zpool status Datengrab kontrollieren — der Resilver sollte quasi sofort durch sein, da die Daten identisch sind.
 
  • Like
Reactions: Johannes S
@Bu66as danke dir für die schnelle Antwort!

Ich hab jetzt noch zwei Platten in meinen Enclousure reingestopft und daher meckert jetzt mein ZPool, dass er 'Degraded' sei:

Bash:
root@pve:~# zpool status -vLP
  pool: Datengrab
 state: DEGRADED
status: One or more devices could not be used because the label is missing or
    invalid.  Sufficient replicas exist for the pool to continue
    functioning in a degraded state.
action: Replace the device using 'zpool replace'.
   see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-4J
  scan: scrub repaired 0B in 1 days 00:28:14 with 0 errors on Sun Feb 22 00:05:19 2026
expand: expanded raidz1-0 copied 2.07T in 1 days 01:25:49, on Fri Feb 20 23:37:05 2026
config:

    NAME                      STATE     READ WRITE CKSUM
    Datengrab                 DEGRADED     0     0     0
      raidz1-0                DEGRADED     0     0     0
        /dev/sdf1             ONLINE       0     0     0
        /dev/sdg1             ONLINE       0     0     0
        /dev/sdj1             ONLINE       0     0     0
        /dev/sdl1             ONLINE       0     0     0
        11808735582751950639  FAULTED      0     0     0  was /dev/sdf1

errors: No known data errors

  pool: rpool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: scrub repaired 0B in 00:00:32 with 0 errors on Sun Feb  8 00:24:37 2026
config:

    NAME           STATE     READ WRITE CKSUM
    rpool          ONLINE       0     0     0
      mirror-0     ONLINE       0     0     0
        /dev/sda3  ONLINE       0     0     0
        /dev/sdb3  ONLINE       0     0     0

errors: No known data errors
root@pve:~#

Ich hab '/dev/sdc' und '/dev'sdd' dazugesteckt:

Bash:
root@pve:~# lsblk -e230 -o+FSTYPE,LABEL,MODEL
NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS FSTYPE     LABEL         MODEL
sda      8:0    0 186.3G  0 disk                                      X446_1625200MCSG
├─sda1   8:1    0  1007K  0 part
├─sda2   8:2    0     1G  0 part             vfat
└─sda3   8:3    0 185.3G  0 part             zfs_member rpool
sdb      8:16   0 186.3G  0 disk                                      SS162512 CLAR200
├─sdb1   8:17   0  1007K  0 part
├─sdb2   8:18   0     1G  0 part             vfat
└─sdb3   8:19   0 185.3G  0 part             zfs_member rpool
sdc      8:32   0 745.2G  0 disk                                      LB806M
├─sdc1   8:33   0 745.2G  0 part             zfs_member Root-HDD_Pool
└─sdc9   8:41   0     8M  0 part
sdd      8:48   0 745.2G  0 disk                                      LB806M
├─sdd1   8:49   0 745.2G  0 part             zfs_member Root-HDD_Pool
└─sdd9   8:57   0     8M  0 part
sde      8:64   0 279.4G  0 disk                                      MBF2300RC
sdf      8:80   0 838.4G  0 disk                                      ST9900805SS
├─sdf1   8:81   0 838.4G  0 part             zfs_member Datengrab
└─sdf9   8:89   0     8M  0 part
sdg      8:96   0 838.4G  0 disk                                      ST9900805SS
├─sdg1   8:97   0 838.4G  0 part             zfs_member Datengrab
└─sdg9   8:105  0     8M  0 part
sdh      8:112  0   1.1T  0 disk                                      DKR5E-J1R2SS
├─sdh1   8:113  0   1.1T  0 part             zfs_member Datengrab
└─sdh9   8:121  0     8M  0 part
sdi      8:128  0 838.4G  0 disk             zfs_member rpool         ST9900805SS
├─sdi1   8:129  0  1007K  0 part
├─sdi2   8:130  0     1G  0 part             vfat
└─sdi3   8:131  0 837.4G  0 part             zfs_member rpool
sdj      8:144  0 838.4G  0 disk                                      ST9900805SS
├─sdj1   8:145  0 838.4G  0 part             zfs_member Datengrab
└─sdj9   8:153  0     8M  0 part
sdk      8:160  0     0B  0 disk                                      DKR5E-J1R2SS
sdl      8:176  0 838.4G  0 disk                                      ST9900805SS
├─sdl1   8:177  0 838.4G  0 part             zfs_member Datengrab
└─sdl9   8:185  0     8M  0 part
sr0     11:0    1  1024M  0 rom                                       TSSTcorp CDDVDW SN-208AB
root@pve:~#


Wie müsste denn nun mein zpool replace ... dann ausschauen?
 
Hätte dieser Weg hier nicht funktioniert?
Code:
zpool export Datengrab
zpool import -d /dev/disk/by-id Datengrab
Eventuell halt davor den Speicher in PVE deaktivieren und alle Gäste stoppen.
 
  • Like
Reactions: UdoB
Hätte dieser Weg hier nicht funktioniert?
Code:
zpool export Datengrab
zpool import -d /dev/disk/by-id Datengrab
Eventuell halt davor den Speicher in PVE deaktivieren und alle Gäste stoppen.
Ja mache ich auch so. Also das geht. Aber was mir mehr Sorgen macht ist die Mischung und den Betrieb von Festplatten mit unterschiedlichen Partitionen und Größen, und dass es nicht auf allen Festplatten die Boot-Partitionen gibt.
 
Last edited:
  • Like
Reactions: Johannes S and UdoB
Hätte dieser Weg hier nicht funktioniert?
Code:
zpool export Datengrab
zpool import -d /dev/disk/by-id Datengrab
Eventuell halt davor den Speicher in PVE deaktivieren und alle Gäste stoppen.
Moinsen!

Okay, ich hab den zpool export Datengrab versucht und direkt danach einen zpool import -d /dev/disk/by-id Datengrab.....

Ich bekomme dann allerdings die Meldung, dass ein Pool 'Datengrab' bereits exisitiert:

Bash:
root@pve:~# zpool export Datengrab
root@pve:~# zpool status -vLP
  pool: Datengrab
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: resilvered 30.4M in 00:00:18 with 0 errors on Sun Mar  1 21:36:40 2026
expand: expanded raidz1-0 copied 2.07T in 1 days 01:25:49, on Fri Feb 20 23:37:05 2026
config:

    NAME           STATE     READ WRITE CKSUM
    Datengrab      ONLINE       0     0     0
      raidz1-0     ONLINE       0     0     0
        /dev/sdf1  ONLINE       0     0     0
        /dev/sdg1  ONLINE       0     0     0
        /dev/sdj1  ONLINE       0     0     0
        /dev/sdl1  ONLINE       0     0     0
        /dev/sdh1  ONLINE       0     0     0

errors: No known data errors

  pool: Root-HDD_Pool
 state: ONLINE
config:

    NAME           STATE     READ WRITE CKSUM
    Root-HDD_Pool  ONLINE       0     0     0
      mirror-0     ONLINE       0     0     0
        /dev/sdc1  ONLINE       0     0     0
        /dev/sdd1  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: scrub repaired 0B in 00:00:32 with 0 errors on Sun Feb  8 00:24:37 2026
config:

    NAME           STATE     READ WRITE CKSUM
    rpool          ONLINE       0     0     0
      mirror-0     ONLINE       0     0     0
        /dev/sda3  ONLINE       0     0     0
        /dev/sdb3  ONLINE       0     0     0

errors: No known data errors
root@pve:~# zpool import -d /dev/disk/by-id Datengrab
cannot import 'Datengrab': a pool with that name already exists
use the form 'zpool import <pool | id> <newpool>' to give it a new name
root@pve:~#

Wenn ich nun ein einfaches zpool status (ohne die Schalter '-vLP' dahinter) mache, sieht das bei mir so aus:

Bash:
root@pve:~# zpool status
  pool: Datengrab
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: resilvered 30.4M in 00:00:18 with 0 errors on Sun Mar  1 21:36:40 2026
expand: expanded raidz1-0 copied 2.07T in 1 days 01:25:49, on Fri Feb 20 23:37:05 2026
config:

    NAME                        STATE     READ WRITE CKSUM
    Datengrab                   ONLINE       0     0     0
      raidz1-0                  ONLINE       0     0     0
        scsi-35000c5006b366a6f  ONLINE       0     0     0
        scsi-35000c500742eac17  ONLINE       0     0     0
        scsi-35000c5004843be53  ONLINE       0     0     0
        scsi-35000c50048437067  ONLINE       0     0     0
        wwn-0x5000cca0727bb960  ONLINE       0     0     0

errors: No known data errors

  pool: Root-HDD_Pool
 state: ONLINE
config:

    NAME                        STATE     READ WRITE CKSUM
    Root-HDD_Pool               ONLINE       0     0     0
      mirror-0                  ONLINE       0     0     0
        scsi-35001e820027288d8  ONLINE       0     0     0
        scsi-35001e82002718b20  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: scrub repaired 0B in 00:00:32 with 0 errors on Sun Feb  8 00:24:37 2026
config:

    NAME                              STATE     READ WRITE CKSUM
    rpool                             ONLINE       0     0     0
      mirror-0                        ONLINE       0     0     0
        scsi-35002538453406f90-part3  ONLINE       0     0     0
        scsi-35002538454978810-part3  ONLINE       0     0     0

errors: No known data errors
root@pve:~#

Das wwn-0x5000cca0727bb960 von der hinzugefügten Platten beim Pool 'Datengrab' irritiert mich ziemlich.

Passt das so?
 
Daher die Empfehlung am Ende.
Okay, ich bin jetzt der Empfehlung gefolgt und hab den Pool einmal in einen neuen Pool "umbenannt" bzw. importiert und dann wieder in 'Datengrab' zurück "umbenannt" bzw. importiert. Ist zwar nicht schön, aber selten :D:


Bash:
[B]root@pve:~# zpool export Datengrab
root@pve:~# zpool import -d /dev/disk/by-id Datengrab Datengrab2
root@pve:~# zpool status -vLP[/B]
  pool: Datengrab2
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: resilvered 30.4M in 00:00:18 with 0 errors on Sun Mar  1 21:36:40 2026
expand: expanded raidz1-0 copied 2.07T in 1 days 01:25:49, on Fri Feb 20 23:37:05 2026
config:

    NAME           STATE     READ WRITE CKSUM
    Datengrab2     ONLINE       0     0     0
      raidz1-0     ONLINE       0     0     0
        /dev/sdf1  ONLINE       0     0     0
        /dev/sdg1  ONLINE       0     0     0
        /dev/sdj1  ONLINE       0     0     0
        /dev/sdl1  ONLINE       0     0     0
        /dev/sdh1  ONLINE       0     0     0

errors: No known data errors

  pool: Root-HDD_Pool
 state: ONLINE
config:

    NAME           STATE     READ WRITE CKSUM
    Root-HDD_Pool  ONLINE       0     0     0
      mirror-0     ONLINE       0     0     0
        /dev/sdc1  ONLINE       0     0     0
        /dev/sdd1  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: scrub repaired 0B in 00:00:32 with 0 errors on Sun Feb  8 00:24:37 2026
config:

    NAME           STATE     READ WRITE CKSUM
    rpool          ONLINE       0     0     0
      mirror-0     ONLINE       0     0     0
        /dev/sda3  ONLINE       0     0     0
        /dev/sdb3  ONLINE       0     0     0

errors: No known data errors
[B]root@pve:~# zpool export Datengrab2
root@pve:~# zpool import -d /dev/disk/by-id Datengrab2 Datengrab
root@pve:~# zpool status -vLP[/B]
  pool: Datengrab
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: resilvered 30.4M in 00:00:18 with 0 errors on Sun Mar  1 21:36:40 2026
expand: expanded raidz1-0 copied 2.07T in 1 days 01:25:49, on Fri Feb 20 23:37:05 2026
config:

    NAME           STATE     READ WRITE CKSUM
    Datengrab      ONLINE       0     0     0
      raidz1-0     ONLINE       0     0     0
        /dev/sdf1  ONLINE       0     0     0
        /dev/sdg1  ONLINE       0     0     0
        /dev/sdj1  ONLINE       0     0     0
        /dev/sdl1  ONLINE       0     0     0
        /dev/sdh1  ONLINE       0     0     0

errors: No known data errors

  pool: Root-HDD_Pool
 state: ONLINE
config:

    NAME           STATE     READ WRITE CKSUM
    Root-HDD_Pool  ONLINE       0     0     0
      mirror-0     ONLINE       0     0     0
        /dev/sdc1  ONLINE       0     0     0
        /dev/sdd1  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: scrub repaired 0B in 00:00:32 with 0 errors on Sun Feb  8 00:24:37 2026
config:

    NAME           STATE     READ WRITE CKSUM
    rpool          ONLINE       0     0     0
      mirror-0     ONLINE       0     0     0
        /dev/sda3  ONLINE       0     0     0
        /dev/sdb3  ONLINE       0     0     0

errors: No known data errors
root@pve:~#

Ich hoffe, dass das so passt!?
 
Wie sieht ein reines zpool status nun aus?

Das schaut jetzt so aus:


Bash:
root@pve:~# zpool status
  pool: Datengrab
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: resilvered 30.4M in 00:00:18 with 0 errors on Sun Mar  1 21:36:40 2026
expand: expanded raidz1-0 copied 2.07T in 1 days 01:25:49, on Fri Feb 20 23:37:05 2026
config:

    NAME                        STATE     READ WRITE CKSUM
    Datengrab                   ONLINE       0     0     0
      raidz1-0                  ONLINE       0     0     0
        scsi-35000c5006b366a6f  ONLINE       0     0     0
        scsi-35000c500742eac17  ONLINE       0     0     0
        scsi-35000c5004843be53  ONLINE       0     0     0
        scsi-35000c50048437067  ONLINE       0     0     0
        wwn-0x5000cca0727bb960  ONLINE       0     0     0

errors: No known data errors

  pool: Root-HDD_Pool
 state: ONLINE
config:

    NAME                        STATE     READ WRITE CKSUM
    Root-HDD_Pool               ONLINE       0     0     0
      mirror-0                  ONLINE       0     0     0
        scsi-35001e820027288d8  ONLINE       0     0     0
        scsi-35001e82002718b20  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: scrub repaired 0B in 00:00:32 with 0 errors on Sun Feb  8 00:24:37 2026
config:

    NAME                              STATE     READ WRITE CKSUM
    rpool                             ONLINE       0     0     0
      mirror-0                        ONLINE       0     0     0
        scsi-35002538453406f90-part3  ONLINE       0     0     0
        scsi-35002538454978810-part3  ONLINE       0     0     0

errors: No known data errors
root@pve:~#
 
Das -f ist hier absolut sicher — ZFS meckert nur, weil es erkennt, dass der by-id-Pfad auf dieselbe physische Platte zeigt, die bereits im Pool ist. Genau das wollen wir ja.

Allerdings: Du hast -part1 angehängt, das ist falsch. sdf wurde als Whole-Disk ohne Partition dem Pool hinzugefügt (siehst du im zpool status — da steht sdf, nicht sdf1). Also muss auch der Ersatzpfad die ganze Disk sein:

Code:
# ID ohne -part1 verwenden:
zpool replace Datengrab /dev/sdf /dev/disk/by-id/scsi-35000cca0727bb960 -f

Danach mit zpool status kontrollieren — statt sdf sollte dann scsi-35000cca0727bb960 stehen.
 
Das -f ist hier absolut sicher — ZFS meckert nur, weil es erkennt, dass der by-id-Pfad auf dieselbe physische Platte zeigt, die bereits im Pool ist. Genau das wollen wir ja.

Allerdings: Du hast -part1 angehängt, das ist falsch. sdf wurde als Whole-Disk ohne Partition dem Pool hinzugefügt (siehst du im zpool status — da steht sdf, nicht sdf1). Also muss auch der Ersatzpfad die ganze Disk sein:

Code:
# ID ohne -part1 verwenden:
zpool replace Datengrab /dev/sdf /dev/disk/by-id/scsi-35000cca0727bb960 -f

Danach mit zpool status kontrollieren — statt sdf sollte dann scsi-35000cca0727bb960 stehen.
@Bu66as :

Sorry, ich bin gerade ein bisschen durcheinander und weiß nicht, was ich jetzt machen soll!?

Ein zpool status zeigt mir ja nun das an für meinen Pool 'Datengrab' :

Bash:
root@pve:~# zpool status
  pool: Datengrab
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: resilvered 30.4M in 00:00:18 with 0 errors on Sun Mar  1 21:36:40 2026
expand: expanded raidz1-0 copied 2.07T in 1 days 01:25:49, on Fri Feb 20 23:37:05 2026
config:

    NAME                        STATE     READ WRITE CKSUM
    Datengrab                   ONLINE       0     0     0
      raidz1-0                  ONLINE       0     0     0
        scsi-35000c5006b366a6f  ONLINE       0     0     0
        scsi-35000c500742eac17  ONLINE       0     0     0
        scsi-35000c5004843be53  ONLINE       0     0     0
        scsi-35000c50048437067  ONLINE       0     0     0
        wwn-0x5000cca0727bb960  ONLINE       0     0     0

Die Platte /dev/sdf wird nun also als wwn-0x5000cca0727bb960 ONLINE 0 0 0 angezeigt....

Was kann ich denn machen, um das zu ändern?
 
Das ist doch schon fast gut — der Export/Import hat die `/dev/sdf` Bezeichnung losgeworden. Jetzt steht da halt `wwn-` statt `scsi-` wie bei den anderen. Ist technisch kein Problem, aber wenn dich die Konsistenz stört:
Code:
zpool replace -f Datengrab wwn-0x5000cca0727bb960 /dev/disk/by-id/scsi-35000cca0727bb960
Danach sollte die Platte wie die anderen mit `scsi-` Prefix auftauchen. Ist aber rein kosmetisch — `wwn-` und `scsi-` sind beides stabile IDs, die sich beim Reboot nicht ändern. Das `/dev/sdX`-Problem hast du ja jetzt gelöst.