Paperless-ngx LXC auf Proxmox Speicherplatz erweitern

omavoss

Member
Mar 15, 2024
119
13
18
Hallo alle,
ich habe mit den Helfer-Scripts Paperless-ngx als LXC installiert und den Scanner meines Multifunktionsgeräts erfolgreich eingebunden.

Nun schreiben manche User im Internet, sie hätten dreitausend Dokumente und mehr mit Paperless-ngx gescannt und eingebunden. Dann muss dafür ausreichend Speicherplatz zur Verfügung gestanden haben. Damit habe ich mein Problem. Hier sind 49 Dokumente gescannt und der verfügbare Speicherplatz sinkt rapide.

Bitte seht euch den Screenshot an und schreibt hier, was ich tun muss, um den Speicherplatz für Paperles-ngx zu vergrößern.

Vielen Dank und beste Grüße.
 

Attachments

  • 2025-05-31 22_30_29-Startseite - Paperless-ngx - Persönlich – Microsoft​ Edge.png
    2025-05-31 22_30_29-Startseite - Paperless-ngx - Persönlich – Microsoft​ Edge.png
    5.6 KB · Views: 16
Last edited:
Gehe zum Resources tab des CTs, klicke die root disk an und gehe dann oben auf Volume Actions > Resize. Der Wert is additiv.
Ich würde empfehlen du lässt folgendes im CT laufen um zu sehen wie dein Speicher benutzt wird.
Bash:
apt install gdu
df -h
gdu /
 
Last edited:
  • Like
Reactions: omavoss
@Impact
Danke.
Size of logical volume pve/vm-104-disk-0 changed from 128.00 GiB (32768 extents) to 144.00 GiB (36864 extents).
Logical volume pve/vm-104-disk-0 successfully resized.
resize2fs 1.47.0 (5-Feb-2023)
Filesystem at /dev/pve/vm-104-disk-0 is mounted on /tmp; on-line resizing required
old_desc_blocks = 16, new_desc_blocks = 18
The filesystem on /dev/pve/vm-104-disk-0 is now 37748736 (4k) blocks long.

Was ist CT? Container? Ja mach ich und melde mich dann nochmals. Vielen Dank!
 
@Impact
Nach der Vergrößerung um 16 GB auf 144 GB ist die Ausgabe von Paperless-ngx unverändert, sie sieht noch immer so aus wie in #1.

Ich kann die Ausgaben von gdu nicht interpretieren, hast Du bitte weiterführende Informationen?
 

Attachments

  • 2025-05-31 23_01_10-pve - Proxmox Virtual Environment.png
    2025-05-31 23_01_10-pve - Proxmox Virtual Environment.png
    17.4 KB · Views: 15
Last edited:
gdu zeigt dir die Order/Dateien des Systems und dessen Größe an. Insgesamt sind nur circa 7G belegt.
Was sagt df -h? Ich kann dir leider nichts genaues zu Paperless sagen da ich es nicht nutze.
Das Bild aus dem ersten Post scheint das Verhältnis zwischen den verschiedenen Dokumenten zu zeigen. In deinem Fall PDFs and PNGs.
Schau zum Beispiel mal hier: https://docs.paperless-ngx.com/assets/screenshots/dashboard.png
Ich sehe nichts was ich als freien oder benutzten Speicher interpretieren würde.
 
Last edited:
Code:
https://raw.githubusercontent.com/community-scripts/ProxmoxVE/main/ct/paperless-ngx.sh

https://packages.debian.org/bookworm/gdu

https://www.linux-community.de/ausg...tiger-ersatz-fuer-du-und-df-gdu-godu-und-duf/

Was ist CT? Container? Ja mach ich und melde mich dann nochmals. Vielen Dank!

Wäre es nicht sinnvoll sich mit dem System weiter auseinanderzusetzen, es wäre doof,
wenn dein in deinem System sehr viele Dokumente liegen und das System kaputt
gespielt wurde.

https://digital-cleaning.de/index.php/paperless-ngx-teil-10-das-rundum-sorglos-backup/
 
Last edited:
@Impact :

Code:
root@paperless-ngx:~# df -h
Filesystem                        Size  Used Avail Use% Mounted on
/dev/mapper/pve-vm--104--disk--0  142G  6.9G  129G   6% /
none                              492K  4.0K  488K   1% /dev
udev                              1.8G     0  1.8G   0% /dev/tty
tmpfs                             1.8G  1.1M  1.8G   1% /dev/shm
tmpfs                             724M  1.6M  723M   1% /run
tmpfs                             5.0M     0  5.0M   0% /run/lock
root@paperless-ngx:~#

Danke für den Beispiel-Link. Ich bin wohl einem fatalen Irrtum erlegen, als ich die Prozentangabe in meinem Bild aus #1 als Speicherplatzbelegung interpretiert habe, tatsächlich zeigen diese Prozentangaben nur das Verhältnis der verschiedenen Dateitypen zueinander an.

Zusatzfrage:
Wie kriege ich das Filesystem /dev/mapper/pve-vm--104--disk--0 142G 6.9G 129G 6% / wieder kleiner? Der ursprüngliche Weg über "resize" funktioniert nur zum vergrößern, oder?

@jan-t:
danke für die Links. Auf jeden Fall hast du Recht, die Sache mit dem Backup scheint mir aber sehr kompliziert. Ich habe hier weder eine funktionierende Nextcloud auf dem Proxmox, obwohl das möglich wäre. Noch will ich wieder einen Raspi einrichten, der die Backup-Jobs übenimmt, nachdem ich meinen Raspi-Zoo dank Proxmox außer Betrieb genommen habe. Abein irgendeine Lösung werde ich finden müssen, ich würde eine lokale Lösung unbedingt bevorzugen wollen.

Ich habe hier noch einige Mini-PC rumliegen, die sie allerdings von der Hardware her von der meines derzeitigen Proxmox-Servers unterscheiden. Mit denen habe ich getestet, einen Cluster einzurichten, abe das geht nicht, weil man dafür identisch aufgebaute Hardware benötigt. Nun, es wäre kein allzugroßer Unterschied, egal ob Raspi oder Mini-PC, zusätzliche Hardware heißt zusätzlicher Stromverbrauch. Ich hätte noch meine zum Vertrag gehörende 1&1-Cloud zur verfügung, damit wären die Backup-Daten nicht lokal. Ich habe keine Ideen mehr, vielleicht hast du noch welche zum Backup-Thema? Ich würde sehr gern meinen gesamten Proxmox-Server backuppen wollen . . .

Nochmals vielen Dank euch beiden fürs lesen und die wirklich hilfreichen Links.
Viele freundliche Grüße.
 
Last edited:
Die GUI kann nur vergrößern da das verkleiners gefährlich sein kann. Hast du ein Snapshot oder Backup dass du wiederherstellen kannst?
Ansonsten kann man es auch einfach so lassen. Durch Thin Provisioning wird nur benutzt was benötigt wird + etwas Puffer. Bitte das hier lesen damit das auch richtig funktioniert: https://gist.github.com/Impact123/3dbd7e0ddaf47c5539708a9cbcaab9e3#discard
Wenn du verkleinern möchtest brauchst du die CLI und so eine Instruktion zu geben ist besser in einem richtigen Chat da es etwas hin und her bedarf.
Wege die mir einfallen sind entweder manuell das Dateisystem und das Volume zu vergleinern oder ein Backup mit einer angegebenen Festplattengröße wiederherstellen.
Bei ZFS wäre das extrem simpel mit einem Befehl zu bewerkstelligen aber LVM ist hier schwieriger.
Meine Empfehlung wäre den Link zu lesen damit Thin Provisioning funktioniert und die Größe einfach erst mal zu lassen wie sie ist.
Cluster brauchen übrigens keine identische Hardware.
 
Last edited:
@Impact :
Ich habe hier auf dem Proxmox-Server weder ZFS noch einen LVM-Thin-Pool. Ich scheitere bei der Einrichtung eines LVM-Thin-Pools bereits bei der Erstellung einer ID.
Wenn ich den Pool einrichten kann, wie kriege ich dann meine 15 LXC-Container in diesen Pool integriert? Kannst du mir bitte Tipps dafür geben? Vielen Dank.
 
Ich ging einfach davon aus da dass der Standard ist das dass man ein local-lvm thin pool hat. Generell kannst du die Fesplatten von Gästen einfach auf einen anderen Storage verschieben. Hat aber nicht mehr so viel mit dem Thema des Posts zu tun.
Wie sieht denn lsblk -o+FSTYPE und lvs auf dem node aus?
 
Last edited:
@Impact :

Code:
root@paperless-ngx:~# lsblk -o+FSTYPE
NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS FSTYPE
sda      8:0    0 223.6G  0 disk             
├─sda1   8:1    0  1007K  0 part             
├─sda2   8:2    0     1G  0 part             
└─sda3   8:3    0 222.6G  0 part             
sdb      8:16   0 476.9G  0 disk             
├─sdb1   8:17   0  1007K  0 part             
├─sdb2   8:18   0     1G  0 part             
└─sdb3   8:19   0 475.9G  0 part             
sdc      8:32   0 465.8G  0 disk             
└─sdc1   8:33   0 465.8G  0 part             
sdd      8:48   0 465.8G  0 disk             
└─sdd1   8:49   0 465.8G  0 part             
root@paperless-ngx:~# 
root@paperless-ngx:~# 
root@paperless-ngx:~# lvs
-bash: lvs: command not found
root@paperless-ngx:~#

Code:
root@paperless-ngx:~# lsblk lvs
lsblk: lvs: not a block device
root@paperless-ngx:~#

Ich hoffe, das hilft weiter. Danke für jeden Hinweis.
 
Ich hätte vielleicht erwähnen sollen, dass du das auf dem node laufen lassen musst. Ich wollte mir ja dein LVM Setup ansehen.
 
Last edited:
  • Like
Reactions: news
@Impact:

Bitte diese Ausgaben ansehen:

Code:
root@pve:~# lsblk -o+FSTYPE
NAME                         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS      FSTYPE
sda                            8:0    0 223.6G  0 disk                 
├─sda1                         8:1    0  1007K  0 part                 
├─sda2                         8:2    0     1G  0 part                  vfat
└─sda3                         8:3    0 222.6G  0 part                  ext4
sdb                            8:16   0 476.9G  0 disk                 
├─sdb1                         8:17   0  1007K  0 part                 
├─sdb2                         8:18   0     1G  0 part /boot/efi        vfat
└─sdb3                         8:19   0 475.9G  0 part                  LVM2_member
  ├─pve-swap                 252:0    0     4G  0 lvm  [SWAP]           swap
  ├─pve-root                 252:1    0   112G  0 lvm  /                ext4
  ├─pve-data_tmeta           252:2    0   3.6G  0 lvm                  
  │ └─pve-data-tpool         252:4    0 352.7G  0 lvm                  
  │   ├─pve-data             252:5    0 352.7G  1 lvm                  
  │   ├─pve-vm--102--disk--0 252:6    0     8G  0 lvm                   ext4
  │   ├─pve-vm--105--disk--0 252:7    0    48G  0 lvm                   ext4
  │   ├─pve-vm--110--disk--0 252:8    0    32G  0 lvm                   ext4
  │   ├─pve-vm--100--disk--0 252:9    0     2G  0 lvm                   ext4
  │   ├─pve-vm--108--disk--0 252:10   0     4G  0 lvm                   ext4
  │   ├─pve-vm--113--disk--0 252:11   0    16G  0 lvm                   ext4
  │   ├─pve-vm--115--disk--0 252:12   0    16G  0 lvm                   ext4
  │   ├─pve-vm--104--disk--0 252:13   0   144G  0 lvm                   ext4
  │   ├─pve-vm--101--disk--0 252:14   0     2G  0 lvm                   ext4
  │   ├─pve-vm--114--disk--0 252:15   0     5G  0 lvm                   ext4
  │   ├─pve-vm--106--disk--0 252:16   0    20G  0 lvm                   ext4
  │   ├─pve-vm--103--disk--0 252:17   0     4G  0 lvm                   ext4
  │   ├─pve-vm--107--disk--0 252:18   0     2G  0 lvm                   ext4
  │   ├─pve-vm--109--disk--0 252:19   0     2G  0 lvm                   ext4
  │   └─pve-vm--111--disk--0 252:20   0     8G  0 lvm                   ext4
  └─pve-data_tdata           252:3    0 352.7G  0 lvm                  
    └─pve-data-tpool         252:4    0 352.7G  0 lvm                  
      ├─pve-data             252:5    0 352.7G  1 lvm                  
      ├─pve-vm--102--disk--0 252:6    0     8G  0 lvm                   ext4
      ├─pve-vm--105--disk--0 252:7    0    48G  0 lvm                   ext4
      ├─pve-vm--110--disk--0 252:8    0    32G  0 lvm                   ext4
      ├─pve-vm--100--disk--0 252:9    0     2G  0 lvm                   ext4
      ├─pve-vm--108--disk--0 252:10   0     4G  0 lvm                   ext4
      ├─pve-vm--113--disk--0 252:11   0    16G  0 lvm                   ext4
      ├─pve-vm--115--disk--0 252:12   0    16G  0 lvm                   ext4
      ├─pve-vm--104--disk--0 252:13   0   144G  0 lvm                   ext4
      ├─pve-vm--101--disk--0 252:14   0     2G  0 lvm                   ext4
      ├─pve-vm--114--disk--0 252:15   0     5G  0 lvm                   ext4
      ├─pve-vm--106--disk--0 252:16   0    20G  0 lvm                   ext4
      ├─pve-vm--103--disk--0 252:17   0     4G  0 lvm                   ext4
      ├─pve-vm--107--disk--0 252:18   0     2G  0 lvm                   ext4
      ├─pve-vm--109--disk--0 252:19   0     2G  0 lvm                   ext4
      └─pve-vm--111--disk--0 252:20   0     8G  0 lvm                   ext4
sdc                            8:32   0 465.8G  0 disk                 
└─sdc1                         8:33   0 465.8G  0 part /mnt/ext_usb-hdd ext4
sdd                            8:48   0 465.8G  0 disk                 
└─sdd1                         8:49   0 465.8G  0 part /mnt/usb-hdd1    ext4
root@pve:~#

lsblk: lvs: not a block device

Die ID 104 gehört paperless-ngx, das hätte ich falls möglich auf 32 GB "eingedampft" . Oder eben das thin-provisioning verwenden.

Ivh mit begeisterter Anfänger von und mit Proxmox, deshalb die vielen Fragen und Unsicherheiten. Ich würde dieses thin-provisioning einschalten, wenn das geht und ich vll. dazu ein paar Hinweise bekomme.

Danke und beste Grüße.
 
Last edited:
Ich würde wirklich gerne die Ausgabe von lvs sehen aber es sieht aus als hättest du den Standard data (local-lvm) thin pool. Deine ganzen Gäste laufen bereits darauf.
 
Die Ausgabe von lvs ist unverändert wie in #11 als Code eingefügt, also auch auf dem Node dasselbe.

Ich lasse das Ganze jetzt mal so laufen und beobachte, ob einer meiner Datenträger vollläuft. Falls es damit Probleme geben sollte, melde ich mich wieder. Danke nochmals und viele freundliche Grüße.
 
Der Befehl ist lvs, nicht lsblk lvs. Das gibt sonst nur den lvs: not a block device Fehler da lvs kein valides Argument für lsblk ist.
Du kannst mit lvs auch prüfen wie viel Speicher die virtuelle Festplatten wirklich benutzen. Siehe obiger Link für mehr Informationen.
 
Last edited:
@Impact:
So, jetzt aber:

Code:
root@pve:~# lvs
  LV            VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data          pve twi-aotz-- <352.74g             26.74  1.31                            
  root          pve -wi-ao----  112.00g                                                    
  swap          pve -wi-ao----    4.00g                                                    
  vm-100-disk-0 pve Vwi-aotz--    2.00g data        76.06                                  
  vm-101-disk-0 pve Vwi-aotz--    2.00g data        98.36                                  
  vm-102-disk-0 pve Vwi-aotz--    8.00g data        82.11                                  
  vm-103-disk-0 pve Vwi-aotz--    4.00g data        47.06                                  
  vm-104-disk-0 pve Vwi-aotz--  144.00g data        7.36                                   
  vm-105-disk-0 pve Vwi-aotz--   48.00g data        68.18                                  
  vm-106-disk-0 pve Vwi-aotz--   20.00g data        15.38                                  
  vm-107-disk-0 pve Vwi-aotz--    2.00g data        58.29                                  
  vm-108-disk-0 pve Vwi-aotz--    4.00g data        26.45                                  
  vm-109-disk-0 pve Vwi-aotz--    2.00g data        58.14                                  
  vm-110-disk-0 pve Vwi-aotz--   32.00g data        11.09                                  
  vm-111-disk-0 pve Vwi-aotz--    8.00g data        30.79                                  
  vm-113-disk-0 pve Vwi-aotz--   16.00g data        56.39                                  
  vm-114-disk-0 pve Vwi-aotz--    5.00g data        39.79                                  
  vm-115-disk-0 pve Vwi-aotz--   16.00g data        97.38                                  
root@pve:~#

Das wirft neue Fragen auf:
Was ist Vwi-aotz-- ? Perplexity gab die Antworten:

"Vwi-aotz--" ist ein Statuskürzel für ein aktives, geöffnetes, schreibbares Thin Volume im LVM-System, wie es bei Proxmox für virtuelle Festplatten verwendet wird.
...
Die Meldung "Vwi-aotz--" bei einem LVM-Thin Volume zeigt an, dass es sich um ein aktives, geöffnetes, schreibbares Thin Volume handelt, das Thin Provisioning nutzt und dessen neue Blöcke beim Anlegen genullt werden. Es ist der Normalzustand für ein laufendes Thin Volume, wie es etwa für VM-Disks in Proxmox verwendet wird.
...
Ein häufiges Problem ist, dass sich LVM-Thin Pools und die darauf basierenden Thin Volumes nicht verkleinern lassen. Das heißt, wenn du einmal Speicherplatz zugewiesen hast, kannst du diesen nicht ohne Weiteres wieder freigeben oder die Größe nachträglich reduzieren. Das kann zu Herausforderungen führen, wenn du deine Storage-Struktur nachträglich anpassen möchtest.
...
Vor größeren Änderungen an LVM-Thin Pools immer ein Backup anlegen und die offiziellen Dokumentationen sowie Community-Erfahrungen konsultieren.

Letzteres habe ich hiermit bis auf das Backup getan und hoffe, alles richtig gemacht zu haben. Da es meine erste Proxmox-Installation mit einer ziemlich zerklüfteten Hardware ist (der Mini-PC besitzt eingebaut eine 512 GB M-Sata und eine 256 GB 2,5 Zoll-Sata-SSD, daran angeschlossen ist ein 128 GB-USB-Stick und eine 500 GB USB-HDD), fällt es mir schwer, den Überblick über die Auslastung deer Speichermedien zu haben bzw. zu behalten.

Also alles gut, wenn ich das richtig verstehe. Thin-provisioning läuft und mein System managt die Belegung des Speicherplatzes selbstständig.

Neuer Lese- und Lernstoff für mich, vielen Dank.
 
Was ist Vwi-aotz
Siehe manual.
Code:
Volume type: (C)ache, (m)irrored, (M)irrored without initial sync,
(o)rigin, (O)rigin with merging snapshot, inte(g)rity, (r)aid,
(R)aid without initial sync, (s)napshot, merging (S)napshot,
(p)vmove, (v)irtual, mirror or raid (i)mage, mirror or raid (I)mage out-of-sync,
mirror (l)og device, under (c)onversion, thin (V)olume, (t)hin pool,
(T)hin pool data, v(d)o pool,v(D)o pool data, raid or pool m(e)tadata or pool metadata spare.

Ob dein Thin Provisioning funktioniert kann ich dir ohne mehr Informationen nicht sagen. vm-101-disk-0 und vm-115-disk-0
sind zB ziemlich voll.
Der Link aus #8 erklärt wie man einrichtet dass CTs und VMs periodisch getrimmt werden. Ich weiß nicht ob du das bereits befolgt hast.
 
vm-115-disk-0 ist hier iventoy, ist zum testen installiert, wird aber nicht wirklich gebraucht. Diese VM wird entfernt, vm-101-disk-0 ist hier Pihole, die könnte ich ebenfalls entfernen und neu etwas größer wieder installieren. Die VM 103, 106, 109 und 110 können ebenfalls entfernt werden.

Würde diese Vorgehensweise das System entlasten und mehr Spielraum für die anderen VM´s schaffen? Denn mit den Aussagen in dem Link aus #8 kann ich wenig anfangen, es ist zu umfangreich, ich weiß nicht, womit ich anfangen und wo aufhören soll. Es ist schwierig, den Text abschnittsweise mit DeepL zu übersetzen und danach zu verstehen.

EDIT:
Habe ausgemistet:

Code:
root@pve:~# lvs
  LV            VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data          pve twi-aotz-- <352.74g             18.89  1.05                            
  root          pve -wi-ao----  112.00g                                                    
  swap          pve -wi-ao----    4.00g                                                    
  vm-100-disk-0 pve Vwi-aotz--    2.00g data        76.06                                  
  vm-101-disk-0 pve Vwi-aotz--    2.00g data        98.36                                  
  vm-102-disk-0 pve Vwi-aotz--    8.00g data        82.11                                  
  vm-104-disk-0 pve Vwi-aotz--  144.00g data        7.36                                   
  vm-105-disk-0 pve Vwi-aotz--   48.00g data        68.18                                  
  vm-107-disk-0 pve Vwi-aotz--    2.00g data        58.52                                  
  vm-108-disk-0 pve Vwi-aotz--    4.00g data        26.45                                  
  vm-113-disk-0 pve Vwi-aotz--   16.00g data        56.39                                  
  vm-114-disk-0 pve Vwi-aotz--    5.00g data        39.79                                  
root@pve:~#

Würde es evtl. ausreichen, die VM 101 mit Hilfe der resize-Prozedur um einige GB zu vergrößern? Ich frage nur deshalb, weil die Vergrößerung nicht mehr rückgängig zu machen ist.
 
Last edited:
Du musst die Größe innerhalb der VM anschauen mit df. lvs zeigt nicht unbedingt die echte benutzte Größe. Google Übersetzter funktioniert auch aber generell ist es ohne Englisch recht schwierig Server zu administrieren.
 
Last edited: