Volumes vergrößern/verbinden

NjuBee

New Member
Jan 27, 2025
6
0
1
Hallo,
ich habe erst kürzlich proxmox installiert und beschäftige mich damit. Ich bin zwar durchaus IT-affin, aber sowas gab es "damals" noch nicht ... also alles Neuland.
Ich habe Proxmox aufgesetzt und verschiedene VMs und Container installiert. Vor allem wollte ich eine gute Basis für HA schaffen.

Mein Rechner ist zwar gut mit RAM ausgestattet, aber hat eine fest verbaute SSD die sehr schmal bemessen ist (alter iMac) und nicht aufgerüstet werden kann. So habe ich einen NVME-Speicher und Gehäuse gekauft und über Thunderbolt verbunden. Ausserdem hängt noch eine große HDD dran für Backups etc.

Disks-übersicht:

Bildschirmfoto 2025-01-27 um 13.07.54.png


Der "Storage" Eintrag zeigt die Übersicht:

Bildschirmfoto 2025-01-27 um 12.36.52.png
Soweit ich das sehen kann sind die Partitionen und Volumes zwar alle da - aber sie sind nicht miteinander verbunden. Sprich:

- local-lvm soll bestehen aus: local-lvm und local_lvm_ssd
- local soll bestehen aus: local, local_data_ssd und usb_hdd_data (wobei alles was man nicht für aktive Prozesse benötigt auf der HDD liegen soll).
- usb_hdd_backup ist eine eigene Partition nur für Backups

Wie verbinde ich diese zu den gemeinsamen Volumes? Eigentlich müsst ich doch local_lvm_ssd einfach zu local-lvm hinzufügen können und dann wird mir hier nur ein Eintrag gezeigt.

Wie kann ich nachträglich die Namen ändern? (Es war ein weiter Weg - try and error - bis hierhin und ich musste mehrfach die Namen ändern, weil die alten dann verbrannt waren - jetzt soll alles auf eine Logik gebracht werden).

Oder bin ich einen völlig falschen Weg gegangen diese Volumes separat anzulegen und es ist eigentlich viel einfacher zusätzlichen Speicherplatz zu bestehenden Volumes hinzuzufügen - nur kenne ich ihn nicht.

P.S.: auf den externen Speichern ist nichts drauf. Die kann ich problemlos platt machen wenn es sein soll. Und die VMs und Container sind zwar eingerichtet, aber auch das lässt sich alles nochmal neu aufsetzen - ich betreibe hier kein Raumfahrtprogramm und keine Atomforschung. Wirklich Arbeit steckt bisher nur in HomeAssistant und das kann ich aus einem Backup neu hochziehen.
 
Last edited:
Wie sieht es denn mit den Ausgaben von lsblk, pvs, vgs, lvs, lvdisplay aus ? Da sollte dir zu deinen Wünschen auch schon einiges klarer werden :)
 
Ich habe bisher versucht so viel wie möglich übers UI zu machen, weil ich damit deutlich besser klarkomme als mit shell-Befehlen. In meinem Alter kann man sich nicht mehr so viel merken ...
 
Jau, nur deine Wünsche bzgl. "Zusammenbauen" sind alle nicht im Webui verfügbar, da geht nur immer etwas neues dazu einrichten, was auch idR zu empfehlen ist. Wenn dir in einem LVM Plattenverbund eine Platte stirbt hast du richtig Pech mit einer dann notwendigen Totalwiederherstellung.
 
  • Like
Reactions: Johannes S
1. Dazu dient ja die separate Partition auf der HDD - bewusst auf FAT32 gehalten, damit man mit jedem Rechner drankommt und groß genug für 1:1-Backups.

2. Also wäre es besser mit den externen Platten nochmal von vorne zu beginnen - aber wie ist die Strategie?
 
Aber der Platz auf der Platte wird knapp - ist das local_lv_ssd verzeichnis bereits mit local-lvm verbunden, sodass jetzt automatisch dort weitergemacht wird? Und ebenso local mit local_data_ssd und usb_hdd_data? Ich wollte es halt nicht drauf ankommen lassen bis alles randvoll ist und dann der Server mit den Schultern zuckt weil er nicht weiß was er weiter tun soll ...

Im Rechenzentrum in der Übersicht sehe ich unter "Storage" 1,83 TB maximum. Aber ich weiß nicht was der da zählt ... nach dem Gesamtwert ist das die interne und die externe SSD zusammen, aber dann fehlen die 800GB von der HD-Partition ...
 
Code:
root@proxmox:~# lsblk
NAME                         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda                            8:0    0 931.5G  0 disk
├─tb_ssd_lvm-lvm_thin_tmeta  252:13   0   100M  0 lvm
│ └─tb_ssd_lvm-lvm_thin      252:15   0   800G  0 lvm
└─tb_ssd_lvm-lvm_thin_tdata  252:14   0   800G  0 lvm
  └─tb_ssd_lvm-lvm_thin      252:15   0   800G  0 lvm
sdb                            8:16   0   2.7T  0 disk
├─sdb1                         8:17   0 746.5G  0 part /mnt/usb_hdd_data
│                                                      /mnt/usb_hdd_backup
└─sdb2                         8:18   0     2T  0 part
nvme0n1                      259:0    0 233.8G  0 disk
├─nvme0n1p2                  259:1    0     1G  0 part /boot/efi
└─nvme0n1p3                  259:2    0 232.8G  0 part
  ├─pve-swap                 252:0    0     8G  0 lvm  [SWAP]
  ├─pve-root                 252:1    0  68.2G  0 lvm  /
  ├─pve-data_tmeta           252:2    0   1.4G  0 lvm
  │ └─pve-data-tpool         252:4    0 137.8G  0 lvm
  │   ├─pve-data             252:5    0 137.8G  1 lvm
  │   ├─pve-vm--100--disk--0 252:6    0    32G  0 lvm
  │   ├─pve-vm--101--disk--0 252:7    0     4M  0 lvm
  │   ├─pve-vm--101--disk--1 252:8    0    32G  0 lvm
  │   ├─pve-vm--102--disk--0 252:9    0     8G  0 lvm
  │   ├─pve-vm--103--disk--0 252:10   0     2G  0 lvm
  │   ├─pve-vm--104--disk--0 252:11   0     4G  0 lvm
  │   └─pve-vm--105--disk--0 252:12   0     4G  0 lvm
  └─pve-data_tdata           252:3    0 137.8G  0 lvm
    └─pve-data-tpool         252:4    0 137.8G  0 lvm
      ├─pve-data             252:5    0 137.8G  1 lvm
      ├─pve-vm--100--disk--0 252:6    0    32G  0 lvm
      ├─pve-vm--101--disk--0 252:7    0     4M  0 lvm
      ├─pve-vm--101--disk--1 252:8    0    32G  0 lvm
      ├─pve-vm--102--disk--0 252:9    0     8G  0 lvm
      ├─pve-vm--103--disk--0 252:10   0     2G  0 lvm
      ├─pve-vm--104--disk--0 252:11   0     4G  0 lvm
      └─pve-vm--105--disk--0 252:12   0     4G  0 lvm
root@proxmox:~# pvs
  PV             VG         Fmt  Attr PSize    PFree
  /dev/nvme0n1p3 pve        lvm2 a--  <232.76g  16.00g
  /dev/sda       tb_ssd_lvm lvm2 a--  <931.51g 131.31g
root@proxmox:~# vgs
  VG         #PV #LV #SN Attr   VSize    VFree
  pve          1  10   0 wz--n- <232.76g  16.00g
  tb_ssd_lvm   1   1   0 wz--n- <931.51g 131.31g
root@proxmox:~# lvs
  LV            VG         Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data          pve        twi-aotz-- 137.76g             25.23  1.99                         
  root          pve        -wi-ao---- <68.19g                                                 
  swap          pve        -wi-ao----   8.00g                                                 
  vm-100-disk-0 pve        Vwi-aotz--  32.00g data        53.23                               
  vm-101-disk-0 pve        Vwi-aotz--   4.00m data        0.00                                 
  vm-101-disk-1 pve        Vwi-aotz--  32.00g data        31.63                               
  vm-102-disk-0 pve        Vwi-aotz--   8.00g data        30.09                               
  vm-103-disk-0 pve        Vwi-aotz--   2.00g data        58.85                               
  vm-104-disk-0 pve        Vwi-aotz--   4.00g data        46.39                               
  vm-105-disk-0 pve        Vwi-aotz--   4.00g data        54.23                               
  lvm_thin      tb_ssd_lvm twi-a-tz-- 800.00g             0.00   10.43                         
root@proxmox:~# lvdisplay
  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV UUID                g2Yren-tcHt-H2H9-cclq-CUUn-T572-crSS2b
  LV Write Access        read/write (activated read only)
  LV Creation host, time proxmox, 2025-01-02 17:09:48 +0100
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 0
  LV Size                137.76 GiB
  Allocated pool data    25.23%
  Allocated metadata     1.99%
  Current LE             35267
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:5
 
  --- Logical volume ---
  LV Path                /dev/pve/swap
  LV Name                swap
  VG Name                pve
  LV UUID                qfTt7d-Cnjd-2qh3-Pcsm-mvKJ-vOWa-oRfUAe
  LV Write Access        read/write
  LV Creation host, time proxmox, 2025-01-02 17:09:47 +0100
  LV Status              available
  # open                 2
  LV Size                8.00 GiB
  Current LE             2048
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0
 
  --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV UUID                9bQoxp-MFDs-07Uj-kqsO-r1R1-Tpvk-FhCqBP
  LV Write Access        read/write
  LV Creation host, time proxmox, 2025-01-02 17:09:47 +0100
  LV Status              available
  # open                 1
  LV Size                <68.19 GiB
  Current LE             17456
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1
 
  --- Logical volume ---
  LV Path                /dev/pve/vm-100-disk-0
  LV Name                vm-100-disk-0
  VG Name                pve
  LV UUID                s2ocde-eN0z-dQXE-KBP1-ZLPO-QESV-OF316A
  LV Write Access        read/write
  LV Creation host, time proxmox, 2025-01-02 19:16:15 +0100
  LV Pool name           data
  LV Status              available
  # open                 1
  LV Size                32.00 GiB
  Mapped size            53.23%
  Current LE             8192
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:6
 
  --- Logical volume ---
  LV Path                /dev/pve/vm-101-disk-0
  LV Name                vm-101-disk-0
  VG Name                pve
  LV UUID                PQhijl-vCk8-3l3Q-VOQV-cCGX-HHOM-t04Xye
  LV Write Access        read/write
  LV Creation host, time proxmox, 2025-01-02 20:01:30 +0100
  LV Pool name           data
  LV Status              available
  # open                 1
  LV Size                4.00 MiB
  Mapped size            0.00%
  Current LE             1
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:7
 
  --- Logical volume ---
  LV Path                /dev/pve/vm-101-disk-1
  LV Name                vm-101-disk-1
  VG Name                pve
  LV UUID                EJbed1-YDo8-xxCp-zmfj-hx12-R5In-mCR27D
  LV Write Access        read/write
  LV Creation host, time proxmox, 2025-01-02 20:01:31 +0100
  LV Pool name           data
  LV Status              available
  # open                 1
  LV Size                32.00 GiB
  Mapped size            31.63%
  Current LE             8192
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:8
 
  --- Logical volume ---
  LV Path                /dev/pve/vm-102-disk-0
  LV Name                vm-102-disk-0
  VG Name                pve
  LV UUID                Rc6aTS-zZS0-ovsx-LtrD-jZmx-mfNb-7vB6kJ
  LV Write Access        read/write
  LV Creation host, time proxmox, 2025-01-10 18:26:11 +0100
  LV Pool name           data
  LV Status              available
  # open                 1
  LV Size                8.00 GiB
  Mapped size            30.09%
  Current LE             2048
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:9
 
  --- Logical volume ---
  LV Path                /dev/pve/vm-103-disk-0
  LV Name                vm-103-disk-0
  VG Name                pve
  LV UUID                qrsvWK-0wLq-lrf5-3oYn-y7fZ-bWmu-Jqoe8k
  LV Write Access        read/write
  LV Creation host, time proxmox, 2025-01-10 22:48:21 +0100
  LV Pool name           data
  LV Status              available
  # open                 1
  LV Size                2.00 GiB
  Mapped size            58.85%
  Current LE             512
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:10
 
  --- Logical volume ---
  LV Path                /dev/pve/vm-104-disk-0
  LV Name                vm-104-disk-0
  VG Name                pve
  LV UUID                UwKGTp-3XXI-XvJR-KlxQ-85FS-PWTG-fDOzOZ
  LV Write Access        read/write
  LV Creation host, time proxmox, 2025-01-10 23:12:31 +0100
  LV Pool name           data
  LV Status              available
  # open                 1
  LV Size                4.00 GiB
  Mapped size            46.39%
  Current LE             1024
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:11
 
  --- Logical volume ---
  LV Path                /dev/pve/vm-105-disk-0
  LV Name                vm-105-disk-0
  VG Name                pve
  LV UUID                jFgQPu-RahB-ay6S-muFw-yt0R-VVQU-keVsbq
  LV Write Access        read/write
  LV Creation host, time proxmox, 2025-01-10 23:30:01 +0100
  LV Pool name           data
  LV Status              available
  # open                 1
  LV Size                4.00 GiB
  Mapped size            54.23%
  Current LE             1024
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:12
 
  --- Logical volume ---
  LV Name                lvm_thin
  VG Name                tb_ssd_lvm
  LV UUID                hfvoNr-CImi-UCdS-vXjL-viqE-wVJ7-nfwQg7
  LV Write Access        read/write
  LV Creation host, time proxmox, 2025-01-23 17:17:08 +0100
  LV Pool metadata       lvm_thin_tmeta
  LV Pool data           lvm_thin_tdata
  LV Status              available
  # open                 0
  LV Size                800.00 GiB
  Allocated pool data    0.00%
  Allocated metadata     10.43%
  Current LE             204800
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           252:15

So wie ich das interpretiere sind die einzelnen Volumes nicht miteinander verbunden ... aber ich hab da einfach zu wenig Ahnung. Aufgrund eines gut gemeinten Ratschlages habe ich Cockpit installiert, dort soll es eine Möglichkeit geben die Volumestrukturen übersichtlicher zu sehen. Dort habe ich aber nichts gefunden, was hilfreich sein könnte ...

Wenn ich jetzt mal nicht so kompliziert denke müsste es doch einfacher sein, wenn ich auf einer tieferen Ebene des Betriebssystems "einfach" die SSD und den NVMe zu einem Raid 0 Laufwerk verbinde und die HDD als eine große gesonderte Partition belasse ... ich denke die 1,8TB SSD-Speicher bekomme ich in meinem Leben nicht mehr voll. Aber der Rechner ist ein Mac! Also keine großen Eingriffsmöglichkeiten im EFI - das müsste auf der Proxmox-Schicht passieren.

Die HDD ist auch reichlich bemessen, aber die lag halt hier so rum ... weshalb Geld ausgeben (wie geschrieben: ich betreibe hier keine Atomforschung).
 
Last edited:
Entweder du migrierst vm's von local-lvm zu local_lvm_ssd oder du führst die nvme vom os und die sda ssd zusammen.
Zum Zusammenführen würde ich diese auch neu initialisieren:
local_lvm_ssd im datacenter löschen,
lvremove lvm_thin
vgremove tb_ssd_lvm
pvremove /dev/sda
pvcreate /dev/sda
vgextend pve /dev/sda
lvextend -l+100%FREE pve/data
pvs
vgs
lvs
lvdisplay
 
@waltar: manchmal ist es einfacher wenn man neu anfängt. Vor 100 Jahren im Studium war IT auch immer eine Katastrophe für mich weil ich einfach zu kompliziert denke ...

Danke!

------------------------------

Oh, noch nicht abgeschickt ... gut so ... es ist "spooky".

Mit meiner angeschlossenen HDD hat alles wunderbar geklappt. Der NVMe-Speicherriegel aber macht Probleme:

- Ich lege eine Partition an und formatiere ihn mit gparted (ext4), sowie GPT. Alles ist gut. (P.S.: dazu läuft Debian/KDE auf einer VM)
- nun versuche ich ihn zu verbinden. Ergebnis: er wird nicht gefunden.
- Ich melde ihn wieder an der Debian VM an und schaue nach: die Partition ist verschwunden ...
- ich lasse ihn wie er ist und wechsel wieder zu Proxmox. Ergebnis: kann nicht verbunden werden, weil eine Partition gefunden wurde ...

Hä? Wenn eine Partition drauf ist findet er ihn nicht und wenn keine drauf ist ist angeblich eine drauf?

node->disks zeigt die Platte aber an, nur das mit dem verschwinden der Partition auch GPT verschwindet.

Ich befürchte das Ding hat ne Macke und ich muss nochmal zu Mediamarkt. Oder gibt es dafür eine Erklärung?