zpool DEGRADED

achim22

Renowned Member
May 21, 2015
419
5
83
59
Dortmund
Hi,
ich habe auf einer Platte, too many errors, und würde jetzt per zpool clear rpool versuche diese weg zu bekommen.
Heißt das, das die Platte ein defekt hat oder kann das durchaus schon einmal vorkommen ?

thanks

root@pve:~# zpool status
pool: rpool
state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
repaired.
scan: scrub repaired 6.76M in 0 days 06:08:47 with 0 errors on Sun Jul 12 06:32:49 2020
config:

NAME STATE READ WRITE CKSUM
rpool DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
ata-WDC_WD4000FYYZ-01UL1B3_WD-WMC130E3LYTD-part3 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B3_WD-WMC130F86H35-part3 ONLINE 0 0 0
ata-WDC_WD4000FYYZ-01UL1B3_WD-WMC130F4M92M-part3 FAULTED 1.70K 0 0 too many errors
ata-WDC_WD4000FYYZ-01UL1B3_WD-WMC130F42E9X-part3 ONLINE 0 0 0

errors: No known data errors


root@pve:~# pveversion -v
proxmox-ve: 6.2-1 (running kernel: 5.4.41-1-pve)
pve-manager: 6.2-6 (running version: 6.2-6/ee1d7754)
pve-kernel-5.4: 6.2-4
pve-kernel-helper: 6.2-4
pve-kernel-5.4.44-2-pve: 5.4.44-2
pve-kernel-5.4.41-1-pve: 5.4.41-1
pve-kernel-5.4.34-1-pve: 5.4.34-2
ceph-fuse: 12.2.11+dfsg1-2.1+b1
corosync: 3.0.4-pve1
criu: 3.11-3
glusterfs-client: 5.5-3
ifupdown: 0.8.35+pve1
ksm-control-daemon: 1.3-1
libjs-extjs: 6.0.1-10
libknet1: 1.16-pve1
libproxmox-acme-perl: 1.0.4
libpve-access-control: 6.1-1
libpve-apiclient-perl: 3.0-3
libpve-common-perl: 6.1-3
libpve-guest-common-perl: 3.0-10
libpve-http-server-perl: 3.0-5
libpve-storage-perl: 6.1-8
libqb0: 1.0.5-1
libspice-server1: 0.14.2-4~pve6+1
lvm2: 2.03.02-pve4
lxc-pve: 4.0.2-1
lxcfs: 4.0.3-pve3
novnc-pve: 1.1.0-1
proxmox-mini-journalreader: 1.1-1
proxmox-widget-toolkit: 2.2-8
pve-cluster: 6.1-8
pve-container: 3.1-8
pve-docs: 6.2-4
pve-edk2-firmware: 2.20200531-1
pve-firewall: 4.1-2
pve-firmware: 3.1-1
pve-ha-manager: 3.0-9
pve-i18n: 2.1-3
pve-qemu-kvm: 5.0.0-4
pve-xtermjs: 4.3.0-1
pve-zsync: 2.0-3
qemu-server: 6.2-3
smartmontools: 7.1-pve2
spiceterm: 3.1-1
vncterm: 1.6-1
zfsutils-linux: 0.8.4-pve1
root@pve:~#


root@pve:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 3.7T 0 disk
├─sda1 8:1 0 1007K 0 part
├─sda2 8:2 0 512M 0 part
└─sda3 8:3 0 3.7T 0 part
sdb 8:16 0 3.7T 0 disk
├─sdb1 8:17 0 1007K 0 part
├─sdb2 8:18 0 512M 0 part
└─sdb3 8:19 0 3.7T 0 part
sdc 8:32 0 3.7T 0 disk
├─sdc1 8:33 0 1007K 0 part
├─sdc2 8:34 0 512M 0 part
└─sdc3 8:35 0 3.7T 0 part
sdd 8:48 0 3.7T 0 disk
├─sdd1 8:49 0 1007K 0 part
├─sdd2 8:50 0 512M 0 part
└─sdd3 8:51 0 3.7T 0 part
zd0 230:0 0 100G 0 disk
└─zd0p1 230:1 0 100G 0 part
zd16 230:16 0 100G 0 disk
├─zd16p1 230:17 0 500M 0 part
└─zd16p2 230:18 0 99.5G 0 part
zd32 230:32 0 100G 0 disk
├─zd32p1 230:33 0 500M 0 part
└─zd32p2 230:34 0 99.5G 0 part
zd48 230:48 0 400G 0 disk
└─zd48p1 230:49 0 400G 0 part
zd64 230:64 0 32G 0 disk
├─zd64p1 230:65 0 512K 0 part
├─zd64p2 230:66 0 30G 0 part
└─zd64p3 230:67 0 1.6G 0 part
zd80 230:80 0 32G 0 disk
├─zd80p1 230:81 0 512K 0 part
├─zd80p2 230:82 0 30G 0 part
└─zd80p3 230:83 0 1.6G 0 part
zd96 230:96 0 150G 0 disk
└─zd96p1 230:97 0 150G 0 part
zd112 230:112 0 150G 0 disk
├─zd112p1 230:113 0 549M 0 part
└─zd112p2 230:114 0 149.5G 0 part
zd128 230:128 0 32G 0 disk
├─zd128p1 230:129 0 512K 0 part
├─zd128p2 230:130 0 30G 0 part
└─zd128p3 230:131 0 1.6G 0 part
zd144 230:144 0 400G 0 disk
└─zd144p1 230:145 0 400G 0 part
zd160 230:160 0 200G 0 disk
└─zd160p1 230:161 0 200G 0 part
zd176 230:176 0 32G 0 disk
├─zd176p1 230:177 0 32G 0 part
├─zd176p5 230:181 0 30G 0 part
└─zd176p6 230:182 0 1.6G 0 part
zd192 230:192 0 100G 0 disk
├─zd192p1 230:193 0 500M 0 part
└─zd192p2 230:194 0 99.5G 0 part
zd208 230:208 0 100G 0 disk
├─zd208p1 230:209 0 500M 0 part
└─zd208p2 230:210 0 99.5G 0 part
zd224 230:224 0 300G 0 disk
├─zd224p1 230:225 0 500M 0 part
└─zd224p2 230:226 0 299.5G 0 part
zd240 230:240 0 32G 0 disk
├─zd240p1 230:241 0 512K 0 part
├─zd240p2 230:242 0 30G 0 part
└─zd240p3 230:243 0 1.6G 0 part
zd256 230:256 0 100G 0 disk
├─zd256p1 230:257 0 500M 0 part
└─zd256p2 230:258 0 99.5G 0 part
zd272 230:272 0 100G 0 disk
└─zd272p1 230:273 0 100G 0 part
zd288 230:288 0 32G 0 disk
├─zd288p1 230:289 0 512K 0 part
├─zd288p2 230:290 0 30G 0 part
└─zd288p3 230:291 0 1.6G 0 part
zd304 230:304 0 32G 0 disk
├─zd304p1 230:305 0 512K 0 part
├─zd304p2 230:306 0 30G 0 part
└─zd304p3 230:307 0 1.6G 0 part
zd320 230:320 0 32G 0 disk
├─zd320p1 230:321 0 512K 0 part
├─zd320p2 230:322 0 30G 0 part
└─zd320p3 230:323 0 1.6G 0 part
zd336 230:336 0 100G 0 disk
├─zd336p1 230:337 0 500M 0 part
└─zd336p2 230:338 0 99.5G 0 part
zd352 230:352 0 200G 0 disk
└─zd352p1 230:353 0 200G 0 part
zd368 230:368 0 100G 0 disk
├─zd368p1 230:369 0 500M 0 part
└─zd368p2 230:370 0 99.5G 0 part
zd384 230:384 0 100G 0 disk
└─zd384p1 230:385 0 100G 0 part
zd400 230:400 0 100G 0 disk
└─zd400p1 230:401 0 100G 0 part
zd416 230:416 0 300G 0 disk
├─zd416p1 230:417 0 500M 0 part
└─zd416p2 230:418 0 299.5G 0 part
zd432 230:432 0 150G 0 disk
└─zd432p1 230:433 0 150G 0 part
zd448 230:448 0 32G 0 disk
├─zd448p1 230:449 0 512K 0 part
├─zd448p2 230:450 0 30G 0 part
└─zd448p3 230:451 0 1.6G 0 part
zd464 230:464 0 32G 0 disk
├─zd464p1 230:465 0 32G 0 part
├─zd464p5 230:469 0 30G 0 part
└─zd464p6 230:470 0 1.6G 0 part
zd480 230:480 0 100G 0 disk
├─zd480p1 230:481 0 500M 0 part
└─zd480p2 230:482 0 99.5G 0 part
zd496 230:496 0 400G 0 disk
└─zd496p1 230:497 0 400G 0 part
zd512 230:512 0 400G 0 disk
└─zd512p1 230:513 0 400G 0 part
zd528 230:528 0 100G 0 disk
├─zd528p1 230:529 0 500M 0 part
└─zd528p2 230:530 0 99.5G 0 part
zd544 230:544 0 100G 0 disk
└─zd544p1 230:545 0 100G 0 part
zd560 230:560 0 300G 0 disk
├─zd560p1 230:561 0 500M 0 part
└─zd560p2 230:562 0 299.5G 0 part
zd576 230:576 0 150G 0 disk
└─zd576p1 230:577 0 150G 0 part
zd592 230:592 0 100G 0 disk
zd608 230:608 0 32G 0 disk
zd624 230:624 0 100G 0 disk
zd640 230:640 0 100G 0 disk
├─zd640p1 230:641 0 500M 0 part
└─zd640p2 230:642 0 99.5G 0 part
zd656 230:656 0 100G 0 disk
└─zd656p1 230:657 0 100G 0 part
zd672 230:672 0 100G 0 disk
├─zd672p1 230:673 0 500M 0 part
└─zd672p2 230:674 0 99.5G 0 part
zd688 230:688 0 200G 0 disk
└─zd688p1 230:689 0 200G 0 part
zd704 230:704 0 100G 0 disk
├─zd704p1 230:705 0 500M 0 part
└─zd704p2 230:706 0 99.5G 0 part
zd720 230:720 0 400G 0 disk
└─zd720p1 230:721 0 400G 0 part
zd736 230:736 0 400G 0 disk
└─zd736p1 230:737 0 400G 0 part
zd752 230:752 0 100G 0 disk
├─zd752p1 230:753 0 500M 0 part
└─zd752p2 230:754 0 99.5G 0 part
zd768 230:768 0 32G 0 disk
zd784 230:784 0 23.9G 0 disk
zd800 230:800 0 23.9G 0 disk
zd816 230:816 0 23.9G 0 disk
zd832 230:832 0 23.9G 0 disk
zd864 230:864 0 1G 0 disk
zd880 230:880 0 10G 0 disk
zd896 230:896 0 10G 0 disk
root@pve:~#
 
You can check the SMART values of that disk.
You can also try to clear it once. Should the errors appear again, the drive should definitely be replaced.

It's possible that not the drive, but the cable is the problem. Replacing the cable first is the cheaper option.
 
Das Blech ist bei einem Hoster und somit keine Kosten beim Austauschen der Platte ;)

Ist diese Vorgehensweise okay ?
1 mit "zpool offline ata-WDC_WD4000FYYZ-01UL1B3_WD-WMC130F4M92M-part3" nehme ich den Datenträger ausser Betrieb
2 dann wird die Platte ausgebaut und die Neue eingebaut
3 dann zpool replace rpool *Name der neuen Platte*
4 anschließend mit zpool online wieder einbinden.

Gruß
 
Wichtig ist, dass du Backups hast. Wir hatten schon mehrfach Probleme beim Hoster, der einfach die falsche Platte gezogen hat.
 
Echt jetzt... o_O

Jo leider. Und als ich mich beschwert hatte, haben die mir einen Auszug zu RAID aus dem Ubuntu-Wiki geschickt, da ich ja Backups haben sollte. Dann hab ich mal ne schöne Mail zurückgeschickt in der ich u.A. gleich mal meine Dienste als Linux-Berater inkl. Schulung erwähnt hatte und es total frech finde, hier so behandelt zu werden. Darauf hat mir der Chef (oder Chef(-Chef)*) geschrieben, dass das alles ja nicht so gemeint gewesen wäre und dass da wohl ein Fehler unterlaufen wäre.... blalbla ... danach haben wir alles zu einem anderen Hoster umgezogen.

:) die Backups , auch PVE-Zsync alle 15 Minuten, laufen ständig bei mir auf ein anderes Blech.

perfekt.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!