Aufteilung 1TB SSD nach frischer Installation

shirocko

New Member
Dec 31, 2024
3
0
1
Hallo zusammen,

ich bin relativ frisch bei Proxmox und habe gerade auf einem Dell Thin Client Proxmox installiert in der Standard Konfiguration.
Im Thin Client verbaut ist eine 1TB SSD.
Nun wurde vermutlich bei der Installation für das root (/) Dateisystem nur 96GB zugewiesen.
Die restlichen 816 GB wurden dem pve-data LVM Pool zugewiesen.
Dieser ist leider nicht als Laufwerk eingebunden.
1736501301926.png
Konkret benötige ich aber mehr Speicherplatz auf dem Root oder TMP File System, um VM Images zu entpacken und umzuwandeln.
Wie kann ich entweder den pve-data Bereich als Laufwerk einbinden oder diesen verkleinern und mehr Platz dem Root FS zuweisen?

Ich vermute man soll aus dem LVM Pool nichts direkt einbinden, da Proxmox diesen verwaltet und für Images und Backups nutzt.
In der Oberfläche von Proxmox kann ich auf jeden Fall keinen Speicherplatz umverteilen, da bereits alles verwendet wird.

Hier noch ein paar Screenshots:
1736501571648.png
1736501601644.png
1736501633660.png
1736501683315.png
1736501719132.png

Danke im Voraus
shirocko
 
Hi,
du müsstest den Thin Pool löschen und dann kannst du das Logische Volume und danach das Dateisystem vergrößern. Hierzu gibt es bereits einige Anleitungen im Forum.
Aber warum brauchtst du denn Platz zum entpacken und umwandeln?
Was für Images hast du denn und wo liegen die denn jetzt. Man kann z.B. mit qm importdisk jedes beliebige Diskimage direkt in seinen Thinpool an seine VM importieren.
 
Das wird auch nicht mount bar sein, da es sich um ein Blockdevice handelt.

mit "lvdisplay" kannst dir das mal auflisten lassen.

Also, entweder reduzierst du die LVM Volume um den benötigten Platz, oder aber du installierst Proxmox mit eigenere Partionierung.

Was für Dateien wist du eigentlich "packen" bzw. "entpacken"? Wenn externer NAS Speicher vorhanden ist, könntest diesen auch einbinden. Der Thin Client kann wahrscheinlich keine zweite SSD (NVMe / SATA) aufnehmen? Wenn doch, wäre das eine Option!
 
Hallo zusammen und danke für die Antworten. Ich habe mich jetzt für den Weg entschieden das LVM zu löschen. Ich habe erst die Container und VMs über den PBS gesichert und gelöscht und dann das logical volume gelöscht und die Root Partition auf 100% vergrößert.
Die Wiederherstellung vom PBS war auch erfolgreich.

Zum Thema VM Umwandlung:
Ich habe eine Windows VM aus Virtual Box exportiert im .ova Format Version 1. in einer Anleitung online habe ich gefunden, dass man die vmdx Datei entpacken soll und dann umwandelt ins qcow2 Format.

Lg shirocko
 
Ich habe erst die Container und VMs über den PBS gesichert und gelöscht und dann das logical volume gelöscht und die Root Partition auf 100% vergrößert.

Warum die Radikalkur? Nun hast du gar keinen Blockspeicher mehr, der ist aber performanter, da der doppelte Overhead durch zwei Dateisysteme wegfällt.

Ich würde noch mal alles sichern und das System neu aufsetzen, aber bitte vorher klarmachen, wieviel du wovon brauchst.

Btw: Bei ZFS ist man bezüglich der Aufteilung flexibler.
Zum Thema VM Umwandlung:
Ich habe eine Windows VM aus Virtual Box exportiert im .ova Format Version 1. in einer Anleitung online habe ich gefunden, dass man die vmdx Datei entpacken soll und dann umwandelt ins qcow2 Format.

Die Anleitung ist halt Käse,man kann direkt die vmdx-Datei in den thin-Pool als raw Image importieren. Welche Anleitung war das? In den offiziellen steht eigentlich, dass man auch den thin-Pool nehmen kann.
 
  • Like
Reactions: ThoSo
Dell Thin Client
Was für ein Teil hast du denn?
Eins aus der Optiplex Serie ? im USFF Format ? Oder "Echter" Thin Client?

Bei den kleinen kisten im "TinyMiniMicro" Format hab ich mir folgendes Partition Layout eingebürgert:
  1. p1 efi 512M
  2. p2 /boot 2G
  3. p3 lvm (pve - volume group) 45G
    1. pve-root / 3G
    2. pve-usr /usr 10G
    3. pve-var /var 5G
    4. pve-tmp /tmp 2G
    5. pve-swap swap 4G
    6. pve-thin thin-pool 20G
  4. p4 zfs vdev mit dem Rest
zfs zpool0 kommt auf p4-vdev
dataset pve-data kommt auf zpool0 /var/lib/vz (local storage)
dataset pve-vm kommt auf zpool0 /mnt/vm (clusterweit ident eingerichtet als pve-vm storage)
eine weitere Disk wäre dann zpool1, etc... bei zwei weiteren Disks zpool1 als mirror

  • je länger ich zfs verwende, desto lieber wird es mir.
  • storage pve-thin im lvm ist für mich EOL und obsolete durch zfs. vor 3-4 jahren dachte ich noch, ich "brauche" den lvm thin storage, weil die jahre davor war das ja auch notwendig.
  • storage local hab ich auch nicht mehr in verwendung seit ich 2-3 Gluster Nodes in LXC am laufen hab und meine ISO/Dumps/Templates dort zentral hoste und als GFS Storage im Cluster für alle Nodes verwendbar habe.
  • die Gluster bricks liegen auf zpool0-gluster0 und /mnt/gluster0/brickN

/ und /root sind somit auf 3G begrenzt,.. das genügt mir als mein home directory.
sollte ich kurzfristig platz brauchen, würde ich mir ein /mnt/mehrplatz per dataset aus dem zpool0 erstellen und dort dann sachen umkonvertieren wenn notwendig.
 
Last edited:
Vielen Dank erst einmal für die vielen Antworten.
Ich habe mich jetzt vorerst dazu entschieden Proxmox noch einmal neu zu installieren, vorerst mit Standard LVM-Thin Config.
ZFS mit den Pools klingt an sich interessant, allerdings müsste ich zunächst Zeit da rein investieren um mich dort einzuarbeiten.
Eventuell ist dann auch ein Setup wie bei @cave denkbar. Danke auf jeden Fall für die Anregung.

Als Hardware verwende ich einen Dell Wyse 5070 mit 1TB SSD und 32 GB RAM. Das sollte für meine geplante Projekte ausreichend sein und dient primär auch als nicht zu stromhungrige alternative zu einem größeren Server.

Aktuell laufen darauf 2 LXC Container, eine VM mit Docker und eine VM mit Home Assistant, welche ich aber erst später intensiver testen will.

Wichtig ist mir primär, dass das System stabil läuft, nicht zu viel Strom zieht und die geforderten VMs und Container zuverlässig ausführt.
Eine zweite Platte kann ich in dem Gehäuse leider nicht unterbringen, daher auch kein RAID.

Ich habe auf meiner Synology NAS eine VM mit PBS aufgesetzt für die regelmäßige Sicherung.
Aber so viel ändert sich an den Containern und VMs nicht, dass eine stündliche oder tägliche Sicherung aller Daten notwendig wäre.

Der AdGuard DNS LXC Container ist für den Notfall noch gedoppelt mit einem AdGuard auf einem Raspi 4, damit die DNS Auflösung im LAN funktional bleibt.

Den Import der .ova Datei habe ich nach dieser Anleitung versuchen wollen:
https://forum.linuxguides.de/index....lte-vms-exportieren-und-in-proxmox-integrier/
Wenn es mittlerweile natürlich auch nativ ohne Umwandlung geht, umso besser.

Edit: Wie kann ich denn die .vmdk direkt als Laufwerksimage in den Thin-Pool hochladen?
In den local Storage kann ich es als IMPORT zwar hochladen, aber der Job bricht ab, da das Image 68GB groß ist und der local Storage nur 99GB ist.
Er kopiert die Daten erst in ein tmp Verzeichnis und dann noch einmal im gleichen Volume, wofür dann nicht mehr genug Platz ist.
Daher wäre es interessant die fertige VM Disk .vmdk direkt in den Thin Pool zu laden und diese direkt als VM Festplatte zu nutzen.
Einen entsprechenden Upload Button im local-lvm gibt es aber nicht.
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!