Ganze viele Probleme nach Neustart

nimblefox

New Member
Sep 17, 2025
19
1
3
Guten Tag,
ich habe das problem, dass mein server nicht mehr über das lokale und globale Netz erreichbar ist, seitdem ich diesen für eine Problembehebung neugestartet habe.
Das problem: ich habe eine Nextcloud vm, auf der ich zu oft das gleiche update wiederholt heruntergeladen habe (vermutlich) wodurch der ram der vm voll war. Der NC Server konnte nicht mehr in den wartungsmodus umschalten, weshalb ich diesen neustarten wollte (um auch den ram zu "leeren"). Selbst das ging nach mehreren versuchen nicht , Fehlermeldung war folgende:
starting worker failed: unable to create file '/var/log/pve/tasks/A/UPID:pve:0029F66A:028249B6:69A52A7A:qmstop:101:root@pam:' - No space left on device (500)
Dementsprechend habe ich mich entschieden, den gesamten proxmox server neuzustarten, wonach ich über die lokale IP keinen Zugriff mehr hatte
Nach dem anschließen eines monitors am Server habe ich dann folgende fehlermeldungen beim Neustart zu Gesicht bekommen:
29743.jpg
Was kann/soll ich machen, um den server wieder auf standardbetrieb zu kriegen. Die lokale Konsole scheint normal zu funktionieren.
Würde es helfen, den server einmal komplett vom strom zu nehmen?
Dass die nextcloud Daten erhalten bleiben wäre bevorzugt und angeblich hat der auch wie normal beim updater ein angebliches backup erstellt.
Konstruktive Hilfe ist gewünscht, bei Fragen zu details o. Ä. Antworte ich liebendgerne innerhalb dieses threads
 
Sieht so aus als wenn Dir Dein root vom pve vollgelaufen ist. Schau das Du da was löschen kannst. Fange mit den Log Files einfach mal an. Entweder direkt /var/log/ oder gerne auch erstmal das journal bisschen verkleinern
 
Sieht so aus als wenn Dir Dein root vom pve vollgelaufen ist. Schau das Du da was löschen kannst. Fange mit den Log Files einfach mal an. Entweder direkt /var/log/ oder gerne auch erstmal das journal bisschen verkleinern
ok, danke für den hinweis. kann ich die größe der ordner einsehen? und wie kann ich den inhalt der ordner löschen?
danke im voraus
update: ok beim versuch, eine leicht bearbeitete journal datei zu speichern, gab es die fehlermeldung "no space left on device"
update2: der versuch, apt autoremove zu nutzen hat vorgeschlagen, einen alten PM kernel (version 6.8.12) zu löschen, beim durchfüren gab es aber wieder einen fehler mit keinem übrigen speicherplatz could not create temporary file...
 
Last edited:
Code:
journalctl --vacuum-size=1G

Gib das mal als root ein und schau dann noch mal
hat nichts gelöscht. die logs haben aber auch nur so 37MB genommen. ich habe es aber jetzt durch log clearing und anderes cleaning geschafft. den 500MB kernel von proxmox zu entfernen. ich würde einfach einen neustart versuchen und dann ein paar sachen von meinem filmserver oder Nextcloud zu löschen
 
Es funktioniert jetzt! Dankeschön :D
ich sehe aber gerade, dass ich dem root nur 8.8GB an speicher gegeben habe und davon sind fast 8.4GB belegt. wie kann ich den speicher erhöhen (schließlich ist es ja das root fs und nicht ein einfacher container)
 
Teile mal bitte
Bash:
vgs
lvs
lsblk -o+FSTYPE
df -hT
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS FSTYPE
sda 8:0 0 838.1G 0 disk zfs_me
├─sda1
│ 8:1 0 1007K 0 part
├─sda2
│ 8:2 0 1G 0 part vfat
└─sda3
8:3 0 837.1G 0 part zfs_me
sr0 11:0 1 1024M 0 rom
zd0 230:0 0 825M 0 disk iso966
└─zd0p1
230:1 0 825M 0 part iso966
zd16 230:16 0 130G 0 disk
└─zd16p1
230:17 0 130G 0 part LVM2_m
zd32 230:32 0 4M 0 disk
Filesystem Type Size Used Avail Use% Mounted on
udev devtmpfs 32G 0 32G 0% /dev
tmpfs tmpfs 6.3G 2.9M 6.3G 1% /run
rpool/ROOT/pve-1 zfs 8.8G 8.4G 420M 96% /
tmpfs tmpfs 32G 49M 32G 1% /dev/shm
tmpfs tmpfs 1.0M 0 1.0M 0% /run/credentials/systemd-journald.service
tmpfs tmpfs 32G 0 32G 0% /tmp
tmpfs tmpfs 5.0M 0 5.0M 0% /run/lock
rpool/var-lib-vz zfs 5.9G 5.5G 420M 93% /var/lib/vz
rpool zfs 420M 128K 420M 1% /rpool
rpool/data zfs 420M 256K 420M 1% /rpool/data
rpool/ROOT zfs 420M 128K 420M 1% /rpool/ROOT
rpool/data/subvol-102-disk-0 zfs 3.5G 3.1G 420M 89% /rpool/data/subvol-102-disk-0
rpool/data/subvol-100-disk-0 zfs 593G 592G 420M 100% /rpool/data/subvol-100-disk-0
rpool/data/subvol-103-disk-0 zfs 4.2G 3.8G 420M 91% /rpool/data/subvol-103-disk-0
rpool/data/subvol-104-disk-0 zfs 86G 86G 420M 100% /rpool/data/subvol-104-disk-0
rpool/data/subvol-105-disk-0 zfs 1.1G 613M 420M 60% /rpool/data/subvol-105-disk-0
rpool/data/subvol-106-disk-0 zfs 2.6G 2.1G 420M 84% /rpool/data/subvol-106-disk-0
rpool/data/subvol-107-disk-0 zfs 1.1G 608M 420M 60% /rpool/data/subvol-107-disk-0
rpool/data/subvol-109-disk-0 zfs 678M 259M 420M 39% /rpool/data/subvol-109-disk-0
rpool/data/subvol-108-disk-0 zfs 2.1G 1.7G 420M 81% /rpool/data/subvol-108-disk-0
/dev/fuse fuse 128M 32K 128M 1% /etc/pve
tmpfs tmpfs 1.0M 0 1.0M 0% /run/credentials/getty@tty1.service
tmpfs tmpfs 6.3G 8.0K 6.3G 1% /run/user/0
 
Ich würde sagen, die 1TB sind ausgereitzt.
Am besten eine zweite SSD einbauen, die VMs verschieben und das System dann entweder neu sizen, oder besser neu aufsetzen.
Alternativ auf externen Datenträger temporär auslagern.
Was ist das den für eine Hardware und vor allem auch gleich mal nach dem RAM sehen. Der ist bestimmt auch überverteilt.
 
Ich würde sagen, die 1TB sind ausgereitzt.
Am besten eine zweite SSD einbauen, die VMs verschieben und das System dann entweder neu sizen, oder besser neu aufsetzen.
Alternativ auf externen Datenträger temporär auslagern.
Was ist das den für eine Hardware und vor allem auch gleich mal nach dem RAM sehen. Der ist bestimmt auch überverteilt.
Jo. stimmt. die festplatten sind so ziemlich komplett voll. Das system ist eine Emulgation von 2 alten hp proliant ml350 g6 servern, die ich für lau bekommen habe. für neuen speicher fehlen mir aktuell die finanziellen mittel und die bereitshaft zum geld ausgeben. Den 62.8GiB RAM geht es glaube ich so gut wie es DDR3 RAM halt gehen kann, aber jetzt neuen RAM für einen gesamten server zu kaufen wäre eine Opfergabe mit diminishing returns
 
Da es ZFS ist wäre folgendes (in einem richtigen Code Block) noch interessant.
Bash:
zpool list
zfs list -ospace,refreservation
Es muss übrigens nicht jedes mal ein Zitat benutzt werden.
 
Da es ZFS ist wäre folgendes (in einem richtigen Code Block) noch interessant.
Bash:
zpool list
zfs list -ospace,refreservation
Es muss übrigens nicht jedes mal ein Zitat benutzt werden.
Bash:
NAME    SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
rpool   832G   806G  26.1G        -         -    54%    96%  1.00x    ONLINE  -
NAME                          AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD  REFRESERV
rpool                          317M   806G        0B    104K             0B       806G       none
rpool/ROOT                     317M  8.37G        0B     96K             0B      8.37G       none
rpool/ROOT/pve-1               317M  8.37G        0B   8.37G             0B         0B       none
rpool/data                     317M   793G        0B    136K             0B       793G       none
rpool/data/subvol-100-disk-0   317M   632G     40.4G    592G             0B         0B       none
rpool/data/subvol-102-disk-0   317M  3.90G      914M   3.01G             0B         0B       none
rpool/data/subvol-103-disk-0   317M  3.78G        0B   3.78G             0B         0B       none
rpool/data/subvol-104-disk-0   317M  93.2G     7.83G   85.4G             0B         0B       none
rpool/data/subvol-105-disk-0   317M   612M        0B    612M             0B         0B       none
rpool/data/subvol-106-disk-0   317M  2.09G        0B   2.09G             0B         0B       none
rpool/data/subvol-107-disk-0   317M   608M        0B    608M             0B         0B       none
rpool/data/subvol-108-disk-0   317M  1.68G        0B   1.68G             0B         0B       none
rpool/data/subvol-109-disk-0   317M   259M        0B    259M             0B         0B       none
rpool/data/vm-101-disk-0       317M    56K        0B     56K             0B         0B       none
rpool/data/vm-101-disk-1       317M  53.3G        0B   53.3G             0B         0B       none
rpool/data/vm-101-disk-2       317M   827M        0B    827M             0B         0B       none
rpool/var-lib-vz               317M  5.44G        0B   5.44G             0B         0B       none
 
Hmm. Ich schätze es bleibt nix übrig außer Gast 100 zu entrümpeln. Ich würde hier so vorgehen um die Platzfresser zu finden
Bash:
apt install gdu
gdu /
Jeweils auf dem Node und im Gast. Du kannst auch Snapshots von 100 und/oder 104 löschen.
 
Last edited:
Hmm. Ich schätze es bleibt nix übrig außer Gast 100 zu entrümpeln. Ich würde hier so vorgehen um die Platzfresser zu finden
Bash:
apt install gdu
gdu /
Jeweils auf dem Node und im Gast. Du kannst auch Snapshots von 100 und/oder 104 löschen.
gdu sieht schon cool aus. ich hätte den kram einfach über sftp gemacht (ct100 ist jellyfin mit entsprechend vielen filmen und serien)
 
Es funktioniert jetzt! Dankeschön :D
ich sehe aber gerade, dass ich dem root nur 8.8GB an speicher gegeben habe und davon sind fast 8.4GB belegt. wie kann ich den speicher erhöhen (schließlich ist es ja das root fs und nicht ein einfacher container)
kann mir hier noch wer helfen? wäre ultra nett, wenn ich das problem für die zukunft vorbeugen kann