Speicherverteilung (Bootdisk-Größe)

noidea

New Member
Dec 9, 2023
26
1
3
Hallo Zusammen,

ich habe versucht,mich etwas mit der Thematik LVM auseinanderzusetzen, weil mir aufgefallen ist, das die Bootdisk-Größe von einem meiner Container recht voll zu sein scheint.
Jetzt habe ich aber,trotz Onkel Google, noch ein paar Fragezeichen.

Hier meine kurze Zusammenfassung von meinem bisherigen Verständnis:

Ich habe eine 128GB SSD verbaut. Darauf läuft nur Proxmox mit seinen Containern. Ich bin mir ziemlich sicher, das ich beim Aufsetzen aus Unwissenheit nicht alles richtig eingestellt habe.

1765029644250.png

Sieht man hier, das "Proxmox" insgesamt 126,96GB zugewiesen ist und zur Verfügung steht?

1765029728065.png

Diese Übersicht habe ich nicht ganz verstanden. Bedeutet das, das ich insgesamt, also mit allen Containern + Backups, usw, aktuell ca.110GB belegt habe?
Wenn ich die einzelnen Werte zusammenrechne, komme ich jedenfalls nicht auf die ca.110GB. Aber zugewiesen heißt nicht gleich belegt,oder?

1765032038581.png

Jetzt komme ich zur Unterscheidung zwischen local und local-lvm

1765031542087.png
Hier bei local liegen die Backups,Templates der Container?

1765031741471.png

Hier bei local-lvm wird der Speicher für die einzelnen Container samt Inhalt belegt.

Und hier kommt jetzt ein weiteres Fragezeichen. Die Größenwerte aus dem Bild oben weichen von den werten ab, die ich beim erstellen der einzelen Containern zugewiesen habe:

1765031914530.png

Z.B. mein IOBROKER Container 104. Da gibt es eine Abweichung von 1,47GB. Demnach würde ja mehr Speicher gerade genutzt, als eigentlich zur Verfügung steht. Ist das dann auch der Grund, warum meine Bootdisk-Größe schon rot ist?:

1765032279657.png

Ich versuche jetzt irgendwie zu verstehen, wieviel Speicher ich noch zur Verfügung hätte, um die Bootdsik-Größe des Containers zu erweitern und ob ich überhaupt noch Speicherplatz frei habe.

Ich hoffe ich habe Aussagekräftige Screenshots gemacht und das ioch mit meinen Annahmen zumindest nicht komplett daneben hänge :)

Vielen Dank schon einmal im Voraus und viele Grüße
 

Attachments

  • 1765029438541.png
    1765029438541.png
    56.8 KB · Views: 3
root, data, und swap sind LVM Volumes denen ein fixer Platz in der Volume Group zugewiesen ist.
Das hier bedeutet einfach nur, dass 88% des Speichers der Volume Group (vgs) vergeben ist. Dieser muss nicht belegt sein.
1765063584645.png
Du kannst dir das etwas wie eine Festplatte vorstellen die noch 22% unpartitionierten Speicher hat.

data ist ein spezielles Thin Volume/Pool. Es enthält "subvolumes" die Speicherplatz dynamisch von data bekommen.
1765063740422.png
In diesem Fall nutzt zB. vm-106-disk-0 96.48% der zugewiesenen 4GB. data selbst ist zu 56.13% belegt.
Damit das Thin Provisioning richtig funktioniert lies auch bitte mal das.
Schau dir auch mal cat /etc/pve/storage.cfg an. Dort wird local/local-lvm zu root/data referenziert.
local-lvm > Summary, node > Disks > LVM-Thin und lvs sollten ziemlich das gleiche anzeigen.
 
Last edited:
  • Like
Reactions: news and ThoSo
Vielen Dank für deine Rückmeldung. Das ganze ich für mich nicht so richtig zu packen.

Es ist also nicht so, wie bei Windows, wo ich z.B. einer Partition 20GB fest zuordne, sondern ich habe in diesem Fall hier z.B.dem Container vm-106-disk-0 zwar Initial mal 4GB zugeordnet, aber sollte mehr Speicher von Nöten sein, dann wird sich was von dem "großen" data geholt?

Aber wie bekomme ich jetzt raus, wieviel Speicherplatz ich noch übrig habe?

Denn die Bootdisk-Größe (Speicherplatz für den Container 104?) ist doch ziemlich am Anschlag und müsste vergrößert werden,oder?:

1765106210545.png
Wobei ich mich frage, warum soviel Spiecher in diesem Container belegt ist. Ja, ich habe natürlich mittlerweile einige Adapter im Einsatz, aber könnte das, mit den ganzen Datenpunkten usw. soviel Speicher belegen?

Kann ich hiervon ableiten, wieviel Speicher ich noch zur Verfügung habe?:

1765106986042.png
 
Last edited:
aber sollte mehr Speicher von Nöten sein, dann wird sich was von dem "großen" data geholt?
Von selber macht das der Container nicht. Du kannst aber manuell die die Größe im GUI erhöhen. Sogar ohne Neustart ....

Oder lösch mal den npmcache und reduziere das journallog.
 
Last edited:
Ok. Ich muss mich noch viel mehr einlesen. Das ist ja ne Wissenschaft für sich :)

Aber liege ich denn mit der Bootdisk-Größe richtig?
 
Ja, die ist fast voll.

Schau mal mit: sudo journalctl --disk-usage wie groß dein log ist.

Wieviele Adapter hast du installiert?
Also das journal zeigt das an:
1765116131432.png

Also nicht sehr groß.
Insgesamt habe ich 23 Adapter installiert, wobei da auch der ein oder andere dabei ist, der einges an Datenpunkte angelegt hat. (z.B. ebus für die Heizung)

Ich müsste also die Speichergröße erweitern. Bleibt noch die Frage, wieviel Speicher ich noch zur Verfügung habe.
 
Wobei ich mich frage, warum soviel Spiecher in diesem Container belegt ist.
Gehe in deinen Container und lasse das laufen um zu sehen was den Platz benutzt
Bash:
apt install -y gdu
gdu /
Kann ich hiervon ableiten, wieviel Speicher ich noch zur Verfügung habe?

Nein. Das zeigt dir nur den Platz von root an was auf / gemounted ist. Für data/local-lvm nutze wie gesagt local-lvm > Summary, node > Disks > LVM-Thin und lvs.

aber sollte mehr Speicher von Nöten sein, dann wird sich was von dem "großen" data geholt?
Nein. Das maximum sind XGB. Diese XGB werden aber nur in Stücken aus data heraus zugewiesen wenn sie gebraucht werden. Zurückgegeben wird es nur wenn discard richtig funktioniert. Siehe Link.
Wenn du weitere Fragen hast, nur her damit. Bitte folge aber auch meinen Link und schau dir auch die Links dort an.
 
Last edited:
Nein da ist das log nicht schuld. Du hast laut deinem Screenshot noch ca. 25GB frei.
Wo genau siehts du die ca.25GB? Ich bin scheinbar nicht in der Lage, das zu erkennen.

Gehe in deinen Container und lasse das laufen um zu sehen was den Platz benutzt
Bash:
apt install -y gdu
gdu /
1765128560504.png

Da scheint sich einiges an Backups angesammelt zu haben. Wenn ich den Pfad mit FileZilla suche, dann finde ich nur das auf der rechten Seite unter dump. Das ist aber nicht der selbe Pfad, denn es sieht nach vielen kleinen Dateien aus:

1765128706378.png

Ich habe mir bestimmt selber ein Ei mit den Backups gelegt.

Nochmals vielen Dank für Eure Mühe und Geduld bisher. ich werde mir ein paar Hausaufgaben mit in den Weihnachtsurlaub nehmen, weil ich es richtig verstehen möchte
 
Mit FileZilla bist du auf der Node und mit gdu bist du im CT. Das auf der Node sind Backups des ganzen Gasts und auf der Node siehst du Backups die IOBroker erstellt. Du wirst die Dateien des CTs nicht direkt auf der Node finden.
Ich bin der Meinung, dass man kaum genug Backups haben kann. Ich nutze IOBroker nicht, aber wenn es selber Backups erstellen kann dann würde ich diese auch nutzen, da vermutlich einfacher bzw. granularär widerherstellbar. Zusätzlich natürlich dennoch Backups und Snapshots des ganzen Gasts auf PVE Seite. Du kannst nun entweder in IOBroker die Anzahl bzw. das maximale Alter der Backups reduzieren, andere unnötige Dateien löschen oder halt einfach die virtuelle Festplatte etwas via Resources > Volume Action > Resize Vergrößern. Im Gast selbst funtkioniert df -hT übrigens generell auch ganz gut. Wie viele Backups sind denn in diesem backups Order drin? Ich kann das leider nicht sehen da zu sehr gecropped. Wenn du m und c drückst gibt es auch mehr Infors zu den Inhalten.
 
Last edited:
Du kannst/solltest bei BackitUp einstellen wieviele Backups gespeichert werden sollen. Da wäre 7, 14 oder 30 ein passender Wert. Aber das ist kein Proxmox Problem.

Edit: Und die IoBroker-Backups im IoBroker-LXC zu speichern halte ich auch für keine gute Idee ...
 
Last edited: