Proxmox auf neue-größere Festplatte umziehen

Nov 25, 2023
67
2
13
Germany
Guten Morgen,
Da mir mein Speicherplatz langsam zu knapp wird möchte ich mein Proxmox von 2x2TB NVME auf 2x4TB u.2 umziehen.
Wie gehe ich da am besten vor?
Einfach 1zu1 Kopien der kleineren Platten erstellen und auf die größeren installieren?


LG
 
Guten Morgen, ist es dir denn klar, dass du überhaupt keine technischen Angaben machst? Sollte man da nicht mal etwas mehr über das eingesetzte File- und Dateisystem benennen? Es sollte vielleicht auch klar sein, dass sich niemanden hinsetzt und alle Möglichkeiten im Detail ausführt. Ich denke das ist Grundlagenwissen und wenn man das nicht hat, sollte man die Finger davon lassen. Vielleicht kommt ja noch eine genaue Darstellung des dessen, was dort existiert und genutzt wird. NVMe gibt es massig und die sind nicht immer das Maß der Dinge.
 
Vielleicht mal einen Weg über ZFS: man füge zu dem Pool einen größeren Datenträger hinzu, man lasse das resilvering abschließen, und entferne aus dem Pool die kleinere Datenträgereinheit. Dasselbe wiederholt man mit der nächsten größeren Datenträgereinheit und entferne anschließend die kleinere wieder. Danach danach doch sind einige ZFS Parameter zu setzen und der ZFS Pool zu vergrößern. Mal vergesse nicht noch das ZFS quota anzupassen auf dem neuen ZFS Pool und ein zpool trim und zpool scrub lasse ich generell auch immer noch laufen. Die genauen Parameter erspare ich mir, die findet man Oracle ZFS Handbuch.
 
Sorry war heute morgen etwas vorschnell beim schreiben und abschicken.

Die beiden 2TB M.2 NVME (Da dies Consumer M.2 sind und schon 58% Wearout haben, will ich diese durch 2x4TB PM9A3 U.2 ersetzen) laufen als ZFS mirror. Darauf läuft Proxmox.
Nutze im Prinzip nur VM und CT. Einige weitere ZFS Pools. Von allem im Prinzip regelmäßige Backups in PBS.
Die Disks von den VMs und CT sind virtuelle Disk auf den Systemplatten.

Kein Ceph oder sonstiges.
 
Last edited:
Ok, bitte poste mal, dann kann ich Dich leiten:
lsblk
ls -lA /dev/disk/by-id/
zpool list -v
zpool status
 
Last edited:
Sorry war heute morgen etwas vorschnell beim schreiben und abschicken.

Die beiden 2TB M.2 NVME (Da dies Consumer M.2 sind und schon 58% Wearout haben, will ich diese durch 2x4TB PM9A3 U.2 ersetzen) laufen als ZFS mirror. Darauf läuft Proxmox.
Nutze im Prinzip nur VM und CT. Einige weitere ZFS Pools. Von allem im Prinzip regelmäßige Backups in PBS.
Die Disks von den VMs und CT sind virtuelle Disk auf den Systemplatten.

Kein Ceph oder sonstiges.
Ganz Simpel beschrieben, einfach eine Disk entfernen und einen Resilver auf eine neue machen und danach die andere. Wenn du kein Guide aus dem Internet suchen möchtest, dem news mehr Infos geben. ;)
 
Okl, bitte poste mal, dann kann ich Dich leiten:
lsblk
ls -lA /dev/disk/by-id/
zpool list -v
zpool status
Bin am Montag wieder zuhause und poste dir alle Infos. Danke schonmal!


Ganz Simpel beschrieben, einfach eine Disk entfernen und einen Resilver auf eine neue machen und danach die andere. Wenn du kein Guide aus dem Internet suchen möchtest, dem news mehr Infos geben. ;)
Darüber habe ich so gar nicht nachgedacht, ist ja im Prinzip sehr simpel.
 
Okl, bitte poste mal, dann kann ich Dich leiten:
lsblk
ls -lA /dev/disk/by-id/
zpool list -v
zpool status


So sorry, letzten Tage war recht stressig. Hab jetzt genug Puffer und Zeit.
Muss ich aber in 3 Beiträge splitten.

Das sind die Platten wo Proxmox (2x2TB) grade installiert ist:
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780 -> ../../nvme2n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780_1 -> ../../nvme2n1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780_1-part1 -> ../../nvme2n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780_1-part2 -> ../../nvme2n1p2
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780_1-part3 -> ../../nvme2n1p3
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780-part1 -> ../../nvme2n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780-part2 -> ../../nvme2n1p2
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780-part3 -> ../../nvme2n1p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14 -> ../../nvme3n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14_1 -> ../../nvme3n1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14_1-part1 -> ../../nvme3n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14_1-part2 -> ../../nvme3n1p2
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14_1-part3 -> ../../nvme3n1p3
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14-part1 -> ../../nvme3n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14-part2 -> ../../nvme3n1p2
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14-part3 -> ../../nvme3n1p3


Das ist wo es hin soll (2x3.84TB):
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663 -> ../../nvme4n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663_1 -> ../../nvme4n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364 -> ../../nvme5n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364_1 -> ../../nvme5n1


NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 10.9T 0 disk
├─sda1 8:1 0 10.9T 0 part
└─sda9 8:9 0 8M 0 part
sdb 8:16 0 10.9T 0 disk
├─sdb1 8:17 0 10.9T 0 part
└─sdb9 8:25 0 8M 0 part
sdc 8:32 0 10.9T 0 disk
├─sdc1 8:33 0 10.9T 0 part
└─sdc9 8:41 0 8M 0 part
sdd 8:48 0 10.9T 0 disk
├─sdd1 8:49 0 10.9T 0 part
└─sdd9 8:57 0 8M 0 part
sde 8:64 0 16.4T 0 disk
├─sde1 8:65 0 16.4T 0 part
└─sde9 8:73 0 8M 0 part
sdf 8:80 0 16.4T 0 disk
├─sdf1 8:81 0 16.4T 0 part
└─sdf9 8:89 0 8M 0 part
sdg 8:96 0 16.4T 0 disk
├─sdg1 8:97 0 16.4T 0 part
└─sdg9 8:105 0 8M 0 part
sdh 8:112 0 16.4T 0 disk
├─sdh1 8:113 0 16.4T 0 part
└─sdh9 8:121 0 8M 0 part
sdi 8:128 0 16.4T 0 disk
├─sdi1 8:129 0 16.4T 0 part
└─sdi9 8:137 0 8M 0 part
sdj 8:144 0 16.4T 0 disk
├─sdj1 8:145 0 16.4T 0 part
└─sdj9 8:153 0 8M 0 part
sdk 8:160 0 16.4T 0 disk
├─sdk1 8:161 0 16.4T 0 part
└─sdk9 8:169 0 8M 0 part
sdl 8:176 0 16.4T 0 disk
├─sdl1 8:177 0 16.4T 0 part
└─sdl9 8:185 0 8M 0 part
sdm 8:192 0 232.9G 0 disk
sdn 8:208 0 894.3G 0 disk
├─sdn1 8:209 0 894.2G 0 part
└─sdn9 8:217 0 8M 0 part
sdo 8:224 0 894.3G 0 disk
├─sdo1 8:225 0 894.2G 0 part
└─sdo9 8:233 0 8M 0 part
sdp 8:240 0 894.3G 0 disk
├─sdp1 8:241 0 894.2G 0 part
└─sdp9 8:249 0 8M 0 part
zd0 230:0 0 120G 0 disk
├─zd0p1 230:1 0 100M 0 part
├─zd0p2 230:2 0 16M 0 part
├─zd0p3 230:3 0 119.1G 0 part
└─zd0p4 230:4 0 839M 0 part
zd16 230:16 0 64G 0 disk
├─zd16p1 230:17 0 1M 0 part
├─zd16p2 230:18 0 2G 0 part
└─zd16p3 230:19 0 62G 0 part
zd32 230:32 0 64G 0 disk
├─zd32p1 230:33 0 1M 0 part
├─zd32p2 230:34 0 2G 0 part
└─zd32p3 230:35 0 62G 0 part
zd48 230:48 0 50G 0 disk
├─zd48p1 230:49 0 1M 0 part
├─zd48p2 230:50 0 2G 0 part
└─zd48p3 230:51 0 48G 0 part
zd64 230:64 0 4M 0 disk
zd80 230:80 0 64G 0 disk
├─zd80p1 230:81 0 260M 0 part
├─zd80p2 230:82 0 512K 0 part
├─zd80p3 230:83 0 55.7G 0 part
└─zd80p4 230:84 0 8G 0 part
zd96 230:96 0 4M 0 disk
zd112 230:112 0 250G 0 disk
├─zd112p1 230:113 0 1M 0 part
├─zd112p2 230:114 0 2G 0 part
└─zd112p3 230:115 0 248G 0 part
zd128 230:128 0 250G 0 disk
├─zd128p1 230:129 0 100M 0 part
├─zd128p2 230:130 0 16M 0 part
├─zd128p3 230:131 0 249.1G 0 part
└─zd128p4 230:132 0 773M 0 part
zd144 230:144 0 50G 0 disk
├─zd144p1 230:145 0 1M 0 part
├─zd144p2 230:146 0 2G 0 part
└─zd144p3 230:147 0 48G 0 part
zd160 230:160 0 100G 0 disk
├─zd160p1 230:161 0 1M 0 part
├─zd160p2 230:162 0 2G 0 part
└─zd160p3 230:163 0 98G 0 part
zd176 230:176 0 1M 0 disk
zd192 230:192 0 220G 0 disk
├─zd192p1 230:193 0 1M 0 part
├─zd192p2 230:194 0 2G 0 part
└─zd192p3 230:195 0 218G 0 part
zd208 230:208 0 1M 0 disk
zd224 230:224 0 64G 0 disk
├─zd224p1 230:225 0 1M 0 part
├─zd224p2 230:226 0 2G 0 part
└─zd224p3 230:227 0 62G 0 part
zd240 230:240 0 32G 0 disk
├─zd240p1 230:241 0 1007K 0 part
├─zd240p2 230:242 0 512M 0 part
└─zd240p3 230:243 0 31.5G 0 part
nvme4n1 259:0 0 3.5T 0 disk
nvme3n1 259:1 0 1.8T 0 disk
├─nvme3n1p1 259:2 0 1007K 0 part
├─nvme3n1p2 259:3 0 1G 0 part
└─nvme3n1p3 259:4 0 1.8T 0 part
nvme2n1 259:5 0 1.8T 0 disk
├─nvme2n1p1 259:6 0 1007K 0 part
├─nvme2n1p2 259:7 0 1G 0 part
└─nvme2n1p3 259:8 0 1.8T 0 part
nvme5n1 259:9 0 3.5T 0 disk
nvme1n1 259:10 0 3.5T 0 disk
├─nvme1n1p1 259:11 0 3.5T 0 part
└─nvme1n1p9 259:12 0 8M 0 part
nvme0n1 259:13 0 3.5T 0 disk
├─nvme0n1p1 259:14 0 3.5T 0 part
└─nvme0n1p9 259:15 0 8M 0 part
zd256 230:256 0 10.6T 0 disk
├─zd256p1 230:257 0 16M 0 part
└─zd256p2 230:258 0 10.6T 0 part
zd272 230:272 0 11.6T 0 disk
└─zd272p1 230:273 0 11.6T 0 part
zd288 230:288 0 3.6T 0 disk
└─zd288p1 230:289 0 3.6T 0 part
zd304 230:304 0 924G 0 disk
└─zd304p1 230:305 0 924G 0 part
zd320 230:320 0 102T 0 disk
└─zd320p1 230:321 0 102T 0 part
zd336 230:336 0 102T 0 disk
└─zd336p1 230:337 0 102T 0 part
 
Last edited:
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-CT250MX500SSD1_2152E5F7B391 -> ../../sdm
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG8292018R960CGN -> ../../sdo
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG8292018R960CGN-part1 -> ../../sdo1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG8292018R960CGN-part9 -> ../../sdo9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG8293006N960CGN -> ../../sdn
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG8293006N960CGN-part1 -> ../../sdn1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG8293006N960CGN-part9 -> ../../sdn9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG829301UV960CGN -> ../../sdp
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG829301UV960CGN-part1 -> ../../sdp1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG829301UV960CGN-part9 -> ../../sdp9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_33W0A0C6F95G -> ../../sdb
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_33W0A0C6F95G-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_33W0A0C6F95G-part9 -> ../../sdb9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_33W0A0D6F95G -> ../../sda
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_33W0A0D6F95G-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_33W0A0D6F95G-part9 -> ../../sda9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_51Q0A1TBF95G -> ../../sdd
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_51Q0A1TBF95G-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_51Q0A1TBF95G-part9 -> ../../sdd9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_51Q0A1TDF95G -> ../../sdc
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_51Q0A1TDF95G-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG07ACA12TE_51Q0A1TDF95G-part9 -> ../../sdc9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_53F0A2PJFJDH -> ../../sdl
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_53F0A2PJFJDH-part1 -> ../../sdl1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_53F0A2PJFJDH-part9 -> ../../sdl9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_53U0A0B3FJDH -> ../../sdf
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_53U0A0B3FJDH-part1 -> ../../sdf1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_53U0A0B3FJDH-part9 -> ../../sdf9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71F0A1JJFQDH -> ../../sdj
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71F0A1JJFQDH-part1 -> ../../sdj1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71F0A1JJFQDH-part9 -> ../../sdj9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71F0A1KYFQDH -> ../../sdh
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71F0A1KYFQDH-part1 -> ../../sdh1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71F0A1KYFQDH-part9 -> ../../sdh9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71H0A08TFQDH -> ../../sdk
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71H0A08TFQDH-part1 -> ../../sdk1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71H0A08TFQDH-part9 -> ../../sdk9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71H0A08UFQDH -> ../../sdg
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71H0A08UFQDH-part1 -> ../../sdg1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_71H0A08UFQDH-part9 -> ../../sdg9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_91J0A09GFJDH -> ../../sdi
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_91J0A09GFJDH-part1 -> ../../sdi1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_91J0A09GFJDH-part9 -> ../../sdi9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_91J0A0FDFJDH -> ../../sde
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_91J0A0FDFJDH-part1 -> ../../sde1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 ata-TOSHIBA_MG09ACA18TE_91J0A0FDFJDH-part9 -> ../../sde9
lrwxrwxrwx 1 root root 13 Nov 27 10:12 lvm-pv-uuid-2OXdoW-ORev-MWzm-wL1s-8xxj-5bsR-3rfguZ -> ../../zd192p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 lvm-pv-uuid-83Rtuf-n0l1-knk5-VbZO-gW9S-UyY6-ImZMOj -> ../../zd112p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 lvm-pv-uuid-eb70WG-O61r-isAD-5MUH-BXa1-nDGT-1rKyWw -> ../../zd224p3
lrwxrwxrwx 1 root root 12 Nov 27 10:12 lvm-pv-uuid-giOobC-Xcfx-Dan8-jCi9-7tsY-tl6x-67cFWr -> ../../zd32p3
lrwxrwxrwx 1 root root 12 Nov 27 10:12 lvm-pv-uuid-NZdAiP-ciAU-E0hT-2qtg-65ut-r35N-e568R4 -> ../../zd16p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 lvm-pv-uuid-sBBKFN-mc0X-mYC2-aQsN-xt1D-cH1h-fSNUaO -> ../../zd240p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 lvm-pv-uuid-Ujqn8V-C7l8-WfCC-nsLU-cENC-TdZi-0kv9kD -> ../../zd160p3
lrwxrwxrwx 1 root root 12 Nov 27 10:12 lvm-pv-uuid-WBWgM2-kW7i-Y9HF-tIjR-z9dc-P5ox-FmikGg -> ../../zd48p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 lvm-pv-uuid-WmtmO8-k5N0-ySbq-dITE-wPuW-r1tx-4f6Rpq -> ../../zd144p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780 -> ../../nvme2n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780_1 -> ../../nvme2n1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780_1-part1 -> ../../nvme2n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780_1-part2 -> ../../nvme2n1p2
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780_1-part3 -> ../../nvme2n1p3
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780-part1 -> ../../nvme2n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780-part2 -> ../../nvme2n1p2
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_23304234C780-part3 -> ../../nvme2n1p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14 -> ../../nvme3n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14_1 -> ../../nvme3n1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14_1-part1 -> ../../nvme3n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14_1-part2 -> ../../nvme3n1p2
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14_1-part3 -> ../../nvme3n1p3
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14-part1 -> ../../nvme3n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14-part2 -> ../../nvme3n1p2
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-CT2000P5PSSD8_233042351F14-part3 -> ../../nvme3n1p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-eui.000000000000000100a0750125a8d876 -> ../../nvme1n1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-eui.000000000000000100a0750125a8d876-part1 -> ../../nvme1n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-eui.000000000000000100a0750125a8d876-part9 -> ../../nvme1n1p9
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-eui.000000000000000100a0750125aa6686 -> ../../nvme0n1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-eui.000000000000000100a0750125aa6686-part1 -> ../../nvme0n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-eui.000000000000000100a0750125aa6686-part9 -> ../../nvme0n1p9
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-eui.000000000000000100a075234234c780 -> ../../nvme2n1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-eui.000000000000000100a075234234c780-part1 -> ../../nvme2n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-eui.000000000000000100a075234234c780-part2 -> ../../nvme2n1p2
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-eui.000000000000000100a075234234c780-part3 -> ../../nvme2n1p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-eui.000000000000000100a0752342351f14 -> ../../nvme3n1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-eui.000000000000000100a0752342351f14-part1 -> ../../nvme3n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-eui.000000000000000100a0752342351f14-part2 -> ../../nvme3n1p2
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-eui.000000000000000100a0752342351f14-part3 -> ../../nvme3n1p3
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-eui.36344830528006630025384500000001 -> ../../nvme4n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-eui.36344830529003640025384500000001 -> ../../nvme5n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225A8D876 -> ../../nvme1n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225A8D876_1 -> ../../nvme1n1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225A8D876_1-part1 -> ../../nvme1n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225A8D876_1-part9 -> ../../nvme1n1p9
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225A8D876-part1 -> ../../nvme1n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225A8D876-part9 -> ../../nvme1n1p9
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225AA6686 -> ../../nvme0n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225AA6686_1 -> ../../nvme0n1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225AA6686_1-part1 -> ../../nvme0n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225AA6686_1-part9 -> ../../nvme0n1p9
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225AA6686-part1 -> ../../nvme0n1p1
lrwxrwxrwx 1 root root 15 Nov 27 10:12 nvme-Micron_9300_MTFDHAL3T8TDP_195225AA6686-part9 -> ../../nvme0n1p9
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663 -> ../../nvme4n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663_1 -> ../../nvme4n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364 -> ../../nvme5n1
lrwxrwxrwx 1 root root 13 Nov 27 10:12 nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364_1 -> ../../nvme5n1
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039ae8d9dc21 -> ../../sdd
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039ae8d9dc21-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039ae8d9dc21-part9 -> ../../sdd9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039ae8d9dc26 -> ../../sdc
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039ae8d9dc26-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039ae8d9dc26-part9 -> ../../sdc9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039b08d2c23c -> ../../sdj
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b08d2c23c-part1 -> ../../sdj1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b08d2c23c-part9 -> ../../sdj9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039b08d2c3ad -> ../../sdh
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b08d2c3ad-part1 -> ../../sdh1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b08d2c3ad-part9 -> ../../sdh9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039b08d36055 -> ../../sdk
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b08d36055-part1 -> ../../sdk1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b08d36055-part9 -> ../../sdk9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039b08d36056 -> ../../sdg
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b08d36056-part1 -> ../../sdg1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b08d36056-part9 -> ../../sdg9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039b28d285a6 -> ../../sdi
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b28d285a6-part1 -> ../../sdi1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b28d285a6-part9 -> ../../sdi9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039b28d2cba1 -> ../../sde
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b28d2cba1-part1 -> ../../sde1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039b28d2cba1-part9 -> ../../sde9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039c68c9e040 -> ../../sdb
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039c68c9e040-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039c68c9e040-part9 -> ../../sdb9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039c68c9e147 -> ../../sda
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039c68c9e147-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039c68c9e147-part9 -> ../../sda9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039c88c9807f -> ../../sdl
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039c88c9807f-part1 -> ../../sdl1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039c88c9807f-part9 -> ../../sdl9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x5000039c88d01f71 -> ../../sdf
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039c88d01f71-part1 -> ../../sdf1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x5000039c88d01f71-part9 -> ../../sdf9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x500a0751e5f7b391 -> ../../sdm
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x55cd2e414f9dd978 -> ../../sdn
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x55cd2e414f9dd978-part1 -> ../../sdn1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x55cd2e414f9dd978-part9 -> ../../sdn9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x55cd2e414f9de042 -> ../../sdo
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x55cd2e414f9de042-part1 -> ../../sdo1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x55cd2e414f9de042-part9 -> ../../sdo9
lrwxrwxrwx 1 root root 9 Nov 27 10:12 wwn-0x55cd2e414f9de89a -> ../../sdp
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x55cd2e414f9de89a-part1 -> ../../sdp1
lrwxrwxrwx 1 root root 10 Nov 27 10:12 wwn-0x55cd2e414f9de89a-part9 -> ../../sdp9
 
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
Download 888G 1009M 887G - - 1% 0% 1.00x ONLINE -
ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG829301UV960CGN 894G 1009M 887G - - 1% 0.11% - ONLINE
Kamera 10.9T 9.57T 1.33T - - 39% 87% 1.00x ONLINE -
mirror-0 10.9T 9.57T 1.33T - - 39% 87.8% - ONLINE
ata-TOSHIBA_MG07ACA12TE_33W0A0C6F95G 10.9T - - - - - - - ONLINE
ata-TOSHIBA_MG07ACA12TE_33W0A0D6F95G 10.9T - - - - - - - ONLINE
PBS 3.48T 407G 3.09T - - 1% 11% 1.00x ONLINE -
mirror-0 3.48T 407G 3.09T - - 1% 11.4% - ONLINE
nvme-eui.000000000000000100a0750125a8d876-part1 3.49T - - - - - - - ONLINE
nvme-Micron_9300_MTFDHAL3T8TDP_195225AA6686-part1 3.49T - - - - - - - ONLINE
Plex 132T 81.9T 49.9T - - 0% 62% 1.00x ONLINE -
raidz1-0 65.5T 41.2T 24.2T - - 0% 63.0% - ONLINE
ata-TOSHIBA_MG09ACA18TE_91J0A0FDFJDH 16.4T - - - - - - - ONLINE
ata-TOSHIBA_MG09ACA18TE_53U0A0B3FJDH 16.4T - - - - - - - ONLINE
ata-TOSHIBA_MG09ACA18TE_71H0A08UFQDH 16.4T - - - - - - - ONLINE
ata-TOSHIBA_MG09ACA18TE_71F0A1KYFQDH 16.4T - - - - - - - ONLINE
raidz1-1 65.5T 40.7T 24.8T - - 0% 62.1% - ONLINE
ata-TOSHIBA_MG09ACA18TE_91J0A09GFJDH 16.4T - - - - - - - ONLINE
ata-TOSHIBA_MG09ACA18TE_71F0A1JJFQDH 16.4T - - - - - - - ONLINE
ata-TOSHIBA_MG09ACA18TE_71H0A08TFQDH 16.4T - - - - - - - ONLINE
ata-TOSHIBA_MG09ACA18TE_53F0A2PJFJDH 16.4T - - - - - - - ONLINE
special - - - - - - - - -
mirror-2 888G 43.6G 844G - - 6% 4.90% - ONLINE
wwn-0x55cd2e414f9dd978 894G - - - - - - - ONLINE
wwn-0x55cd2e414f9de042 894G - - - - - - - ONLINE
Cloud 10.9T 2.18T 8.73T - - 0% 19% 1.00x ONLINE -
mirror-0 10.9T 2.18T 8.73T - - 0% 20.0% - ONLINE
ata-TOSHIBA_MG07ACA12TE_51Q0A1TBF95G 10.9T - - - - - - - ONLINE
ata-TOSHIBA_MG07ACA12TE_51Q0A1TDF95G 10.9T - - - - - - - ONLINE
rpool 1.81T 412G 1.41T - - 15% 22% 1.00x ONLINE -
mirror-0 1.81T 412G 1.41T - - 15% 22.2% - ONLINE
nvme-CT2000P5PSSD8_23304234C780-part3 1.82T - - - - - - - ONLINE
nvme-CT2000P5PSSD8_233042351F14-part3 1.82T - - - - - - - ONLINE


pool: Download
state: ONLINE
config:

NAME STATE READ WRITE CKSUM
Download ONLINE 0 0 0
ata-SSDSC2KG960G8L_01PE338D7A09686LEN_PHYG829301UV960CGN ONLINE 0 0 0

errors: No known data errors

pool: Kamera
state: ONLINE
scan: scrub repaired 0B in 22:42:09 with 0 errors on Sun Nov 10 23:06:15 2024
config:

NAME STATE READ WRITE CKSUM
Kamera ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-TOSHIBA_MG07ACA12TE_33W0A0C6F95G ONLINE 0 0 0
ata-TOSHIBA_MG07ACA12TE_33W0A0D6F95G ONLINE 0 0 0

errors: No known data errors

pool: PBS
state: ONLINE
scan: scrub repaired 0B in 00:22:03 with 0 errors on Sun Nov 10 00:46:11 2024
config:

NAME STATE READ WRITE CKSUM
PBS ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
nvme-eui.000000000000000100a0750125a8d876-part1 ONLINE 0 0 0
nvme-Micron_9300_MTFDHAL3T8TDP_195225AA6686-part1 ONLINE 0 0 0

errors: No known data errors

pool: Plex
state: ONLINE
scan: scrub repaired 0B in 19:06:32 with 0 errors on Sun Nov 10 19:30:41 2024
config:

NAME STATE READ WRITE CKSUM
Plex ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
ata-TOSHIBA_MG09ACA18TE_91J0A0FDFJDH ONLINE 0 0 0
ata-TOSHIBA_MG09ACA18TE_53U0A0B3FJDH ONLINE 0 0 0
ata-TOSHIBA_MG09ACA18TE_71H0A08UFQDH ONLINE 0 0 0
ata-TOSHIBA_MG09ACA18TE_71F0A1KYFQDH ONLINE 0 0 0
raidz1-1 ONLINE 0 0 0
ata-TOSHIBA_MG09ACA18TE_91J0A09GFJDH ONLINE 0 0 0
ata-TOSHIBA_MG09ACA18TE_71F0A1JJFQDH ONLINE 0 0 0
ata-TOSHIBA_MG09ACA18TE_71H0A08TFQDH ONLINE 0 0 0
ata-TOSHIBA_MG09ACA18TE_53F0A2PJFJDH ONLINE 0 0 0
special
mirror-2 ONLINE 0 0 0
wwn-0x55cd2e414f9dd978 ONLINE 0 0 0
wwn-0x55cd2e414f9de042 ONLINE 0 0 0

errors: No known data errors

pool: Cloud
state: ONLINE
config:

NAME STATE READ WRITE CKSUM
Cloud ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-TOSHIBA_MG07ACA12TE_51Q0A1TBF95G ONLINE 0 0 0
ata-TOSHIBA_MG07ACA12TE_51Q0A1TDF95G ONLINE 0 0 0

errors: No known data errors

pool: rpool
state: ONLINE
scan: scrub repaired 0B in 00:14:40 with 0 errors on Sun Nov 10 00:38:51 2024
config:

NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
nvme-CT2000P5PSSD8_23304234C780-part3 ONLINE 0 0 0
nvme-CT2000P5PSSD8_233042351F14-part3 ONLINE 0 0 0

errors: No known data errors
 
Last edited:
Guten Morgen,

Hier der Leitfaden, mit Quellen und einer schrittweisen Anleitung.

Ich kann Fehler gemacht haben, deshalb übernehme ich keine Verantwortung für den Erfolg.

Aber ich habe selbst auf unterschiedlichen Proxmox VE von NVMe auf SSD und SSD auf SSD Systeme migriert und sie laufen bis heute.

Bitte sich vor absetzen der Befehle in einer root-shell Gedanken über deren Funktion machen.

Bash:
# Proxmox umziehen:
# Ausgangssituation
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 00:14:40 with 0 errors on Sun Nov 10 00:38:51 2024
config:

NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
nvme-CT2000P5PSSD8_23304234C780-part3 ONLINE 0 0 0
nvme-CT2000P5PSSD8_233042351F14-part3 ONLINE 0 0 0
#
# Die erste NVMe (Daten-Quelle)
nvme-CT2000P5PSSD8_23304234C780

mit 3 Partitionen:
nvme-CT2000P5PSSD8_23304234C780-part1 -> ../../nvme2n1p1
nvme-CT2000P5PSSD8_23304234C780-part2 -> ../../nvme2n1p2
nvme-CT2000P5PSSD8_23304234C780-part3 -> ../../nvme2n1p3
#
# Die zweite NVMe (Daten-Quelle)
nvme-CT2000P5PSSD8_233042351F14

mit 3 Partitionen:
nvme-CT2000P5PSSD8_233042351F14_1-part1 -> ../../nvme3n1p1
nvme-CT2000P5PSSD8_233042351F14_1-part2 -> ../../nvme3n1p2
nvme-CT2000P5PSSD8_233042351F14_1-part3 -> ../../nvme3n1p3
#
# Neue NVMe
#
nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663 -> ../../nvme4n1
nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364 -> ../../nvme5n1
#
# Vorbereitung
# -0-
# man wipefs
#
wipefs -a /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663
wipefs -a /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364
#
# create new partion layout
# Quelle: https://www.thomas-krenn.com/de/wiki/Boot-Device_Replacement_-_Proxmox_ZFS_Mirror_Disk_austauschen
#
# -1-
sgdisk /dev/disk/by-id/nvme-CT2000P5PSSD8_23304234C780 -R /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663
sgdisk -G /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663
#
# create new partion layout
# -2-
sgdisk /dev/disk/by-id/nvme-CT2000P5PSSD8_23304234C780 -R /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364
sgdisk -G /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364
#
# create UEFI Boot Disk
# -3-
proxmox-boot-tool format /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663-part2
proxmox-boot-tool init /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663-part2
#
# create UEFI Boot Disk
# -4-
proxmox-boot-tool format /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364-part2
proxmox-boot-tool init /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364-part2
#
# Tools for UEFI Boot Disks management
proxmox-boot-tool status
proxmox-boot-tool refresh
proxmox-boot-tool clean
proxmox-boot-tool status
#
# ZFS Pool rpool replace devices
# https://docs.oracle.com/en/operating-systems/solaris/oracle-solaris/11.4/manage-zfs/replacing-devices-in-a-storage-pool.html
#
# -5-
zpool replace -f rpool /dev/disk/by-id/nvme-CT2000P5PSSD8_23304234C780-part3 /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663-part3
# check status
zpool status -v rpool
#
# -6-
zpool replace -f rpool /dev/disk/by-id/nvme-CT2000P5PSSD8_233042351F14-part3 /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364-part3
# check status
zpool status -v rpool
#
# -7-
# power off
# alte NVMe ausbauen !
# reboot the system and check in the BIOS, if the the boot NVMe are selected.
#
# Clean UEFI Boot Disks
# -8-
proxmox-boot-tool refresh
proxmox-boot-tool status
proxmox-boot-tool clean
proxmox-boot-tool status
#
# Expand ZFS Pool rpool
# https://docs.oracle.com/en/operating-systems/solaris/oracle-solaris/11.4/manage-zfs/taking-devices-in-a-storage-pool-offline-or-returning-online.html
# -9-
zpool set autoexpand=on rpool
zpool online -e rpool /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663-part3
zpool set autoexpand=off rpool
 
Last edited:
  • Like
Reactions: ivans89
Wie sehen die Settings der einzelnen ZFS Pools für die Parameter aus:
zfs get quota rpool
zfs get atime rpool

Ich setze zfs set atime=off rpool für den Pool, habe ich noch einen Proxmox Backup Server in einen Dataset am laufen, dann ist
zfs set atime=on rpool/<backupserver> notwendig.

Das ZFS Quota auf jedem ZFS Pool ist notwendig ! und sollte ca. 80 % - 85 % des maximalen Speichers entsprechen.
Hier sind dann auch Angaben in M oder T Byte möglich, z.B.:
zfs set quota=3.14T rpool
 
Last edited:
  • Like
Reactions: ivans89
Wie sehen die Settings der einzelnen ZFS Pools für die Parameter aus:
zfs get quota rpool
zfs get atime rpool

Ich setze zfs set atime=off rpool für den Pool, habe ich noch einen Proxmox Backup Server in einen Dataset am laufen, dann ist
zfs set atime=on rpool/<backupserver> notwendig.

Das ZFS Quota auf jedem ZFS Pool ist notwendig ! und sollte ca. 80 % - 85 %des maximalen Speichers entsprechen.
Hier sind dann auch Angaben in M oder T Byte möglich, z.B.:
zfs set quota=3.14T rpool

Hab ich keine gesetzt. Weder atime noch qouta.
 
Habs selber gefunden. Mit parted die Partitionen vergrößert und anschließend das ZFS expand.

Muss ich das nur auf einer der beiden Platten machen?
zpool online -e rpool /dev/disk/by-id/SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663-part3


nochmals vielen lieben DANK!
 
Last edited:
Ruf mal auf zpool list -v rpool

Laut Beschreibung/ Anleitung von Oracle nur für eine NVMe/ SSD im Pool.
 
Last edited:
Es gibt noch einen Parameter, der den Verschleiß der NVMe/ SSD vergrößert.

zpool get autotrim rpool
zpool set autotrim=off rpool
Man kann dann einfach über einen cron-job, z.B. 1x wöchentlich, aufrufen:
zpool trim rpool
 
Es gibt noch einen Parameter, der den Verschleiß der NVMe/ SSD vergrößert.

zpool get autotrim rpool
zpool set autotrim=off rpool
Man kann dann einfach über einen cron-job, z.B. 1x wöchentlich, aufrufen:
zpool trim rpool

zpool trim "pool" läuft bei mir schon 1x die Woche.


Hier zpool list

NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT


rpool 3.48T 418G 3.08T - - 8% 11% 1.00x ONLINE -


mirror-0 3.48T 418G 3.08T - - 8% 11.7% - ONLINE


nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R800663-part3 3.49T - - - - - - - ONLINE


nvme-SAMSUNG_MZQL23T8HCLS-00A07_S64HNE0R900364-part3 3.49T - - - - - - - ONLINE
 
Nun wenn zpool get autotrim == on auf rpool ist, dann wird der Trim bei jeder Schreibaktion sofort durchgeführt. Das bedeutet weitere "Beschäftigung" der SSD/ NVMe und einen höheren Verschleiß.
Will man das?