Hallo, ich habe eine Frage zu einer älteren Proxmox-Installation die ich vor einigen Tagen temp. übernommen habe. Auf dieser wurde via Installimage Debian installiert, dann ZFS und schlussendlich Proxmox 4.x. Nun liegt der eigentliche Admin in der Reha und eine Platte des SW-Raids soll getauscht werden (noch nicht defekt aber EOL). Backups gibt es, es ist auch nichts lebenswichtiges auf dem System.
was wäre jetzt der richtige Weg um das aufzulösen (via Hot Swap), ich habe leider herzlich wenig Erfahrung mit ZFS. sdb5 mit detach aus dem Pool, sdb1-3 aus dem SW-Raid nehmen und dann tauschen lassen? Partitionen von sda kopieren und sdb5 neu in den Pool einbinden?
Personalities : [raid1]
md2 : active raid1 sda3[0] sdb3[1]
10477568 blocks super 1.2 [2/2] [UU]
md1 : active raid1 sda2[0] sdb2[1]
2095104 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sda1[0] sdb1[1]
33521664 blocks super 1.2 [2/2] [UU]
-------------------------------------
zpool status
pool: zfspool
state: ONLINE
scan: scrub repaired 0 in 3h16m with 0 errors on Sun Oct 8 03:40:53 2017
config:
NAME STATE READ WRITE CKSUM
zfspool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sda5 ONLINE 0 0 0
sdb5 ONLINE 0 0 0
errors: No known data errors
-------------------------------------
cat /proc/partitions
major minor #blocks name
1 0 65536 ram0
1 1 65536 ram1
1 2 65536 ram2
1 3 65536 ram3
1 4 65536 ram4
1 5 65536 ram5
1 6 65536 ram6
1 7 65536 ram7
1 8 65536 ram8
1 9 65536 ram9
1 10 65536 ram10
1 11 65536 ram11
1 12 65536 ram12
1 13 65536 ram13
1 14 65536 ram14
1 15 65536 ram15
8 0 488386584 sda
8 1 33554432 sda1
8 2 2097152 sda2
8 3 10485760 sda3
8 4 1 sda4
8 5 442243096 sda5
8 16 488386584 sdb
8 17 33554432 sdb1
8 18 2097152 sdb2
8 19 10485760 sdb3
8 20 1 sdb4
8 21 442243096 sdb5
9 0 33521664 md0
9 1 2095104 md1
9 2 10477568 md2
230 0 157286400 zd0
230 1 358400 zd0p1
230 2 156924928 zd0p2
--------------------------------
/dev/sdb1 2048 67110912 67108865 32G fd Linux raid autodetect
/dev/sdb2 67112960 71307264 4194305 2G fd Linux raid autodetect
/dev/sdb3 71309312 92280832 20971521 10G fd Linux raid autodetect
/dev/sdb4 92282880 976773167 884490288 421.8G f W95 Ext'd (LBA)
/dev/sdb5 92284928 976771120 884486193 421.8G fd Linux raid autodetect
/dev/sda1 2048 67110912 67108865 32G fd Linux raid autodetect
/dev/sda2 67112960 71307264 4194305 2G fd Linux raid autodetect
/dev/sda3 71309312 92280832 20971521 10G fd Linux raid autodetect
/dev/sda4 92282880 976773167 884490288 421.8G f W95 Ext'd (LBA)
/dev/sda5 92284928 976771120 884486193 421.8G fd Linux raid autodetect
md2 : active raid1 sda3[0] sdb3[1]
10477568 blocks super 1.2 [2/2] [UU]
md1 : active raid1 sda2[0] sdb2[1]
2095104 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sda1[0] sdb1[1]
33521664 blocks super 1.2 [2/2] [UU]
-------------------------------------
zpool status
pool: zfspool
state: ONLINE
scan: scrub repaired 0 in 3h16m with 0 errors on Sun Oct 8 03:40:53 2017
config:
NAME STATE READ WRITE CKSUM
zfspool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sda5 ONLINE 0 0 0
sdb5 ONLINE 0 0 0
errors: No known data errors
-------------------------------------
cat /proc/partitions
major minor #blocks name
1 0 65536 ram0
1 1 65536 ram1
1 2 65536 ram2
1 3 65536 ram3
1 4 65536 ram4
1 5 65536 ram5
1 6 65536 ram6
1 7 65536 ram7
1 8 65536 ram8
1 9 65536 ram9
1 10 65536 ram10
1 11 65536 ram11
1 12 65536 ram12
1 13 65536 ram13
1 14 65536 ram14
1 15 65536 ram15
8 0 488386584 sda
8 1 33554432 sda1
8 2 2097152 sda2
8 3 10485760 sda3
8 4 1 sda4
8 5 442243096 sda5
8 16 488386584 sdb
8 17 33554432 sdb1
8 18 2097152 sdb2
8 19 10485760 sdb3
8 20 1 sdb4
8 21 442243096 sdb5
9 0 33521664 md0
9 1 2095104 md1
9 2 10477568 md2
230 0 157286400 zd0
230 1 358400 zd0p1
230 2 156924928 zd0p2
--------------------------------
/dev/sdb1 2048 67110912 67108865 32G fd Linux raid autodetect
/dev/sdb2 67112960 71307264 4194305 2G fd Linux raid autodetect
/dev/sdb3 71309312 92280832 20971521 10G fd Linux raid autodetect
/dev/sdb4 92282880 976773167 884490288 421.8G f W95 Ext'd (LBA)
/dev/sdb5 92284928 976771120 884486193 421.8G fd Linux raid autodetect
/dev/sda1 2048 67110912 67108865 32G fd Linux raid autodetect
/dev/sda2 67112960 71307264 4194305 2G fd Linux raid autodetect
/dev/sda3 71309312 92280832 20971521 10G fd Linux raid autodetect
/dev/sda4 92282880 976773167 884490288 421.8G f W95 Ext'd (LBA)
/dev/sda5 92284928 976771120 884486193 421.8G fd Linux raid autodetect
was wäre jetzt der richtige Weg um das aufzulösen (via Hot Swap), ich habe leider herzlich wenig Erfahrung mit ZFS. sdb5 mit detach aus dem Pool, sdb1-3 aus dem SW-Raid nehmen und dann tauschen lassen? Partitionen von sda kopieren und sdb5 neu in den Pool einbinden?