[Gelöst] Umstieg auf größere SSD

daniello

Well-Known Member
Oct 13, 2018
37
1
48
54
Hallo allerseits,

ich hab mal probiert auf eine größere SSD umzusteigen .. bin aber leider nicht Linix-fit genug um mir wegen des Ergebnisses sicher zu sein (es funktionert aber alles).

Ich hab die 3 Partitionen mit Rescuezilla gecloned und danach die deutlich größte der 3 Partitionen mit Gparted auf das maximum skaliert.

Allerdings erkenne ich in "df" jetzt keinen maßgeblichen Unterschied.

Muss ich noch irgendws tun, um mehr Platz für Images und Maschinen zu haben .. bzw. damit die größere Partition auch genutzt wird?

Schönen Gruß
daniello
 
Du musst das Filesystem auf der Partition noch ausdehnen. Üblicherweise geht das mit resize2fs. Wenn nur die Partition (/dev/sd…) als Parameter mitgegeben wird, wird das Filesystem auf die gesamte Partitionsgrösse ausgedehnt.
 
vorher:

1734261371153.png

nach:
lvextend -l +100%FREE /dev/mapper/pve-root


1734262313097.png

hoffe das war so alles richtig
 
Last edited:
Mmh, denke das war ggf. noch nicht das was du wirklich wolltest, denn nun hast du zwar ein großes "/", jedoch kein größeres data für deine vm/lxc ...
 
Mmh, denke das war ggf. noch nicht das was du wirklich wolltest, denn nun hast du zwar ein großes "/", jedoch kein größeres data für deine vm/lxc ...

In der oben geposteten Anleitung ist "root" auch vergrößert worden aber dort folgt noch ein resize2fs .. welches ich nicht durchgeführt habe.
Dennoch ist das Ergebnis dort auch ein skaliertes "root". Mein df schaut so aus:

1734264568841.png

Falsch?
 
Last edited:
data, "/" und swap speisen sich aus "pve" Volumegroup, siehe lvdisplay.
Hast du denn schon das "/" filesystem (und welches ?) vergrößert, was sagt df ?
 
Last edited:
df hab ich grad gepostet (#6) .. irritieren tut mich beim anschauen, dass Use% auf 100% steht.
 
Yeah, lvm hat sehr sehr viele Fallstricke und Falltüren, sehr viele cmd's mit noch unendlich viel mehr Optionen dazu, wenn man das nicht oft macht empfehle ich immer die Finger davon zu lassen, zudem es auch ein zusätzlicher I/O layer ist (heißt nicht anlegen, was bei Proxmox aber unmöglich ist, wenn man nicht auf zfs installiert).
Welches filesystem hast du auf "/" (das mit den 100% löst sich sicher noch "auf") ?
Was sagt lvdisplay ?
 
Da macht wohl jemand gerade hastig eine Datensicherung (/-rettung) vor jeglich weiteren Aktionen ... :)
 
Keinesfalls .. ich hab ja noch das clone-file .. ich "musste" nur grad auf'n Weihnachstmarkt:

Filesystem auf / weiß ich grad nicht wo ich schauen soll .. hab irgendwann mal Proxmox installiert und genommen was kam.
lvdisplay hier:

root@proxmox:~# lvdisplay
--- Logical volume ---
LV Name data
VG Name pve
LV UUID 6nbh2R-IGpQ-RRNT-r6b5-FFPV-JQMA-KCIoeO
LV Write Access read/write (activated read only)
LV Creation host, time proxmox, 2018-10-11 17:49:14 +0200
LV Pool metadata data_tmeta
LV Pool data data_tdata
LV Status available
# open 0
LV Size 151.62 GiB
Allocated pool data 55.43%
Allocated metadata 3.27%
Current LE 38816
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:5

--- Logical volume ---
LV Path /dev/pve/swap
LV Name swap
VG Name pve
LV UUID p7vns2-6f6T-GpfH-b9e3-p2EM-Sd7x-S7wfpV
LV Write Access read/write
LV Creation host, time proxmox, 2018-10-11 17:49:13 +0200
LV Status available
# open 2
LV Size 8.00 GiB
Current LE 2048
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:0

--- Logical volume ---
LV Path /dev/pve/root
LV Name root
VG Name pve
LV UUID CfH0Jf-WxjB-bEov-cI4l-gnvy-mJUJ-IZvklY
LV Write Access read/write
LV Creation host, time proxmox, 2018-10-11 17:49:13 +0200
LV Status available
# open 1
LV Size <313.96 GiB
Current LE 80373
Segments 2
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:1

--- Logical volume ---
LV Path /dev/pve/vm-100-disk-0
LV Name vm-100-disk-0
VG Name pve
LV UUID EAgj1p-idTz-al04-j2P3-tWW6-yyze-GA5cyJ
LV Write Access read/write
LV Creation host, time proxmox, 2020-10-21 07:38:43 +0200
LV Pool name data
LV Status available
# open 1
LV Size 32.00 GiB
Mapped size 84.92%
Current LE 8192
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:6

--- Logical volume ---
LV Path /dev/pve/vm-104-disk-0
LV Name vm-104-disk-0
VG Name pve
LV UUID tAiN75-uSmb-tm45-jE2Q-pmcK-GYEz-IsbeCS
LV Write Access read/write
LV Creation host, time proxmox, 2020-11-13 11:21:08 +0100
LV Pool name data
LV Status available
# open 1
LV Size 32.00 GiB
Mapped size 99.86%
Current LE 8192
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:7

--- Logical volume ---
LV Path /dev/pve/vm-101-disk-0
LV Name vm-101-disk-0
VG Name pve
LV UUID DvYNl5-is1e-o9Ac-BzIQ-Vz5t-pPnA-Na34tP
LV Write Access read/write
LV Creation host, time proxmox, 2023-12-26 14:52:12 +0100
LV Pool name data
LV Status available
# open 1
LV Size 32.00 GiB
Mapped size 77.86%
Current LE 8192
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:8
 
Last edited:
Invalid argument for --extents: 65g
Error during parsing of command line.

ist es vielleicht

lvresize -l 65g /dev/mapper/pve-root

frage lieber erst .. noch nicht abgeschickt.

"pvdisplay" hatte ich auch noch gar nicht .. für's Protokoll .. sieht vor Befehl so aus:
1734276779252.png
 
Last edited:
Aah, meinte natürlich lvdisplay, aber lvs zeigt schon, daß dieses gut gegangen ist.
Jetzt "resize2fs /dev/mapper/pve-root", um das vergrößerte und wieder verkleinerte "/" anzupassen, "df" sollte dann besser aussehen.
Danach "lvresize -L+100% pve/data", danach neues lvs, lvdisplay ?

PS: Mit "mount" siehst du, welche filesystem Typen vorliegen, wahrscheinlich ext4 bei dir, welches man auch verkleinern kann, xfs dagegen geht nur größer.
 
Hmm .. er ist wieder pingelich:

1734278281496.png

/dev/mapper/pve-root on / type ext4 (rw,relatime,errors=remount-ro)
 
Danke für Deine Geduld .. schaut es jetzt gut aus?

1734278779111.png

root@proxmox:/# lvdisplay
--- Logical volume ---
LV Name data
VG Name pve
LV UUID 6nbh2R-IGpQ-RRNT-r6b5-FFPV-JQMA-KCIoeO
LV Write Access read/write (activated read only)
LV Creation host, time proxmox, 2018-10-11 17:49:14 +0200
LV Pool metadata data_tmeta
LV Pool data data_tdata
LV Status available
# open 0
LV Size 400.58 GiB
Allocated pool data 20.98%
Allocated metadata 3.34%
Current LE 102549
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:5

--- Logical volume ---
LV Path /dev/pve/swap
LV Name swap
VG Name pve
LV UUID p7vns2-6f6T-GpfH-b9e3-p2EM-Sd7x-S7wfpV
LV Write Access read/write
LV Creation host, time proxmox, 2018-10-11 17:49:13 +0200
LV Status available
# open 2
LV Size 8.00 GiB
Current LE 2048
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:0

--- Logical volume ---
LV Path /dev/pve/root
LV Name root
VG Name pve
LV UUID CfH0Jf-WxjB-bEov-cI4l-gnvy-mJUJ-IZvklY
LV Write Access read/write
LV Creation host, time proxmox, 2018-10-11 17:49:13 +0200
LV Status available
# open 1
LV Size 65.00 GiB
Current LE 16640
Segments 2
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:1

--- Logical volume ---
LV Path /dev/pve/vm-100-disk-0
LV Name vm-100-disk-0
VG Name pve
LV UUID EAgj1p-idTz-al04-j2P3-tWW6-yyze-GA5cyJ
LV Write Access read/write
LV Creation host, time proxmox, 2020-10-21 07:38:43 +0200
LV Pool name data
LV Status available
# open 1
LV Size 32.00 GiB
Mapped size 84.92%
Current LE 8192
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:6

--- Logical volume ---
LV Path /dev/pve/vm-104-disk-0
LV Name vm-104-disk-0
VG Name pve
LV UUID tAiN75-uSmb-tm45-jE2Q-pmcK-GYEz-IsbeCS
LV Write Access read/write
LV Creation host, time proxmox, 2020-11-13 11:21:08 +0100
LV Pool name data
LV Status available
# open 1
LV Size 32.00 GiB
Mapped size 99.86%
Current LE 8192
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:7

--- Logical volume ---
LV Path /dev/pve/vm-101-disk-0
LV Name vm-101-disk-0
VG Name pve
LV UUID DvYNl5-is1e-o9Ac-BzIQ-Vz5t-pPnA-Na34tP
LV Write Access read/write
LV Creation host, time proxmox, 2023-12-26 14:52:12 +0100
LV Pool name data
LV Status available
# open 1
LV Size 32.00 GiB
Mapped size 77.86%
Current LE 8192
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:8

1734278925612.png
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!