update geht nicht disk voll

vikozo

Renowned Member
May 4, 2014
781
31
93
suisse
www.wombat.ch
Virtual Environment 7.4-17 hab ich

hallo
beim update bekomme ich einen Fehler und darf es dann mit dpkg --config -a installieren.
Dort erscheint eine meldung das ein file nicht kopiert werden kann weil kein platz sei.

Jetzt verstehe ich nicht was voll sein sollte. Wie kann ich es genau herausfinden?

gruss
vinc
 
Mach mal df -h und poste den Output als Code hier
 
Code:
# df -h

Filesystem        Size  Used Avail Use% Mounted on
udev               32G     0   32G   0% /dev
tmpfs             6.3G  1.9M  6.3G   1% /run
rpool/ROOT/pve-1  8.5T  2.4T  6.1T  29% /
tmpfs              32G   66M   32G   1% /dev/shm
tmpfs             5.0M     0  5.0M   0% /run/lock
pve-04-ssdPool    796G  128K  796G   1% /pve-04-ssdPool
rpool             6.1T  256K  6.1T   1% /rpool
rpool/data        6.1T  256K  6.1T   1% /rpool/data
rpool/ROOT        6.1T  256K  6.1T   1% /rpool/ROOT
/dev/fuse         128M   76K  128M   1% /etc/pve
tmpfs 6.3G 0 6.3G 0% /run/user/0

hätte das Gefühl das es mehr ausgelastet sein sollte
 
Last edited:
Das sieht eigentlich gut aus. Da fällt mir Spontan auch nix zu ein.
 
danke,
das andere "Problem" wenn ich via SSH einlooge dann gibt es ein freeze nach einer weile!
Weis nicht ob es am Linux Laptop oder Proxmox ist.
 
bekomme mit apt-get dist-upgrade einen Fehler un muss dann dpkg --configure -a ausführen.
das beginnt
Code:
pve-04:~# dpkg --configure -a
Setting up pve-kernel-5.15.107-2-pve (5.15.107-2) ...
Examining /etc/kernel/postinst.d.
run-parts: executing /etc/kernel/postinst.d/apt-auto-removal 5.15.107-2-pve /boot/vmlinuz-5.15.107-2-pve
run-parts: executing /etc/kernel/postinst.d/initramfs-tools 5.15.107-2-pve /boot/vmlinuz-5.15.107-2-pve
update-initramfs: Generating /boot/initrd.img-5.15.107-2-pve
Running hook script 'zz-proxmox-boot'..
Re-executing '/etc/kernel/postinst.d/zz-proxmox-boot' in new private mount namespace..
No /etc/kernel/cmdline found - falling back to /proc/cmdline
Copying and configuring kernels on /dev/disk/by-uuid/FB5D-B209
        Copying kernel 5.15.107-1-pve

und da hängt es dann.
 
Was sagt denn ein:
Code:
zpool list
zpool status

Hast mal neu gestartet, vielleicht hängt ein i/o Prozess im Kernel...

Wie sieht denn der Graphen vom Host aus?
 
@Neobin danke für den Link - und im Post 6 ist die Fehlermeldung

Code:
@srv-03:~# proxmox-boot-tool status
Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount namespace..
System currently booted with legacy bios
C740-C0DF is configured with: uefi (versions: 5.3.18-3-pve, 5.4.103-1-pve, 5.4.106-1-pve), grub (versions: 5.15.102-1-pve, 5.15.104-1-pve, 5.15.107-1-pve, 5.15.107-2-pve, 5.15.108-1-pve, 5.15.116-1-pve, 5.4.203-1-pve)
C741-25F3 is configured with: uefi (versions: 5.3.18-3-pve, 5.4.103-1-pve, 5.4.106-1-pve), grub (versions: 5.15.102-1-pve, 5.15.104-1-pve, 5.15.107-1-pve, 5.4.203-1-pve)

Code:
@pve-04:~# proxmox-boot-tool status
Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount namespace..
System currently booted with legacy bios
FB5D-B209 is configured with: uefi (versions: 5.3.18-3-pve, 5.4.103-1-pve, 5.4.106-1-pve), grub (versions: 5.15.102-1-pve, 5.15.104-1-pve, 5.15.107-1-pve, 5.15.107-2-pve, 5.15.108-1-pve, 5.15.116-1-pve, 5.4.203-1-pve)
FB5E-619B is configured with: uefi (versions: 5.3.18-3-pve, 5.4.103-1-pve, 5.4.106-1-pve), grub (versions: 5.15.102-1-pve, 5.15.104-1-pve, 5.15.107-1-pve, 5.4.203-1-pve)
FB5E-FBC2 is configured with: uefi (versions: 5.3.18-3-pve, 5.4.103-1-pve, 5.4.106-1-pve), grub (versions: 5.15.102-1-pve, 5.15.104-1-pve, 5.15.107-1-pve, 5.4.203-1-pve)
WARN: /dev/disk/by-uuid/FB60-88AB does not exist - clean '/etc/kernel/proxmox-boot-uuids'! - skipping
 
Last edited:
Was sagt denn ein:
Code:
zpool list
zpool status

Hast mal neu gestartet, vielleicht hängt ein i/o Prozess im Kernel...

Wie sieht denn der Graphen vom Host aus?

Code:
root@srv-03:~# zpool list
NAME    SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
rpool  2.72T  1.53T  1.19T        -         -    31%    56%  1.00x  DEGRADED  -
root@srv-03:~# zpool status
  pool: rpool
 state: DEGRADED
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-9P
  scan: resilvered 152G in 01:29:04 with 0 errors on Tue Sep  5 19:39:53 2023
config:

        NAME                                                STATE     READ WRITE CKSUM
        rpool                                               DEGRADED     0     0     0
          mirror-0                                          DEGRADED     0     0     0
            ata-WDC_WD30EFRX-68EUZN0_WD-WMC4N2357156-part3  ONLINE       0     0     0
            ata-WDC_WD30EFRX-68EUZN0_WD-WMC4N2303468-part3  DEGRADED     0     0     0  too many errors

errors: No known data errors

Code:
root@pve-04:~# zpool status
  pool: pve-04-ssdPool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
        The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
        the pool may no longer be accessible by software that does not support
        the features. See zpool-features(7) for details.
  scan: scrub repaired 0B in 00:07:54 with 0 errors on Sun Jan 14 00:31:55 2024
config:

        NAME                                             STATE     READ WRITE CKSUM
        pve-04-ssdPool                                   ONLINE       0     0     0
          mirror-0                                       ONLINE       0     0     0
            ata-Samsung_SSD_870_EVO_1TB_S626NJ0R137929D  ONLINE       0     0     0
            ata-Samsung_SSD_870_EVO_1TB_S626NJ0R149686B  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
        The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
        the pool may no longer be accessible by software that does not support
        the features. See zpool-features(7) for details.
  scan: scrub repaired 0B in 08:42:36 with 0 errors on Sun Jan 14 09:06:38 2024
config:

        NAME                                        STATE     READ WRITE CKSUM
        rpool                                       ONLINE       0     0     0
          raidz2-0                                  ONLINE       0     0     0
            ata-ST6000NM0115-1YZ110_ZAD9ATFR-part3  ONLINE       0     0     0
            ata-TOSHIBA_HDWT360_8910A001FB1G-part3  ONLINE       0     0     0
            ata-TOSHIBA_HDWE160_49PRK0P9FB8G-part3  ONLINE       0     0     0
            ata-ST6000VN0033-2EE110_ZADAFYXN-part3  ONLINE       0     0     0

errors: No known data errors
 
Du hast aber schon gesehen, dass da dein ZFS pool mit deinem Root-Dateisystem nicht in Ordnung ist? Sollte aber trotzdem nicht den Fehler erklären.

Ich führe immer ein apt autoremove nach jedem Kernel-Upgrade aus, dass da alte Kernel von der ESP entfernt werden, damit ein Upgrade dann nicht scheitert wenn die ESP voll ist.
 
ja das hab ich wohl vernachlässigt und jetzt gibt das auch ein fehler

Code:
The following packages will be REMOVED:
  pve-kernel-5.15.107-2-pve
0 upgraded, 0 newly installed, 1 to remove and 2 not upgraded.
15 not fully installed or removed.
After this operation, 400 MB disk space will be freed.
Do you want to continue? [Y/n] y
(Reading database ... 158497 files and directories currently installed.)
Removing pve-kernel-5.15.107-2-pve (5.15.107-2) ...
Examining /etc/kernel/postrm.d.
run-parts: executing /etc/kernel/postrm.d/initramfs-tools 5.15.107-2-pve /boot/vmlinuz-5.15.107-2-pve
update-initramfs: Deleting /boot/initrd.img-5.15.107-2-pve
run-parts: executing /etc/kernel/postrm.d/proxmox-auto-removal 5.15.107-2-pve /boot/vmlinuz-5.15.107-2-pve
run-parts: executing /etc/kernel/postrm.d/zz-proxmox-boot 5.15.107-2-pve /boot/vmlinuz-5.15.107-2-pve
Re-executing '/etc/kernel/postrm.d/zz-proxmox-boot' in new private mount namespace..
No /etc/kernel/cmdline found - falling back to /proc/cmdline
Copying and configuring kernels on /dev/disk/by-uuid/C740-C0DF
        Copying kernel 5.15.107-1-pve
        Copying kernel 5.15.116-1-pve
cp: error writing '/var/tmp/espmounts/C740-C0DF/vmlinuz-5.15.116-1-pve': No space left on device
run-parts: /etc/kernel/postrm.d/zz-proxmox-boot exited with return code 1
Failed to process /etc/kernel/postrm.d at /var/lib/dpkg/info/pve-kernel-5.15.107-2-pve.postrm line 14.
dpkg: error processing package pve-kernel-5.15.107-2-pve (--remove):
 installed pve-kernel-5.15.107-2-pve package post-removal script subprocess returned error exit status 1
dpkg: too many errors, stopping
Errors were encountered while processing:
 pve-kernel-5.15.107-2-pve
Processing was halted because there were too many errors.
E: Sub-process /usr/bin/dpkg returned an error code (1)
 
gibt es noch ideen?

Was wurde denn in der Zwischenzeit umgesetzt?


Code:
cp: error writing '/var/tmp/espmounts/C740-C0DF/vmlinuz-5.15.116-1-pve': No space left on device

Wurde, wie in meinem Link beschrieben, Platz auf den ESPs geschaffen?


Code:
root@srv-03:~# zpool status
  pool: rpool
 state: DEGRADED

Wieder healthy? Inklusive der ESPs?


Code:
@pve-04:~# proxmox-boot-tool status
[...]
WARN: /dev/disk/by-uuid/FB60-88AB does not exist - clean '/etc/kernel/proxmox-boot-uuids'! - skipping

Wurde hier eine Disk ausgetauscht, ohne: [1] zu befolgen?


Code:
pve-04:~# dpkg --configure -a
Code:
srv-03:~# proxmox-boot-tool status

Was spielt eine andere Node hier nun plötzlich für eine Rolle?


PS.:
und im Post 6 ist die Fehlermeldung

Das war die Ausgabe von:
Code:
pve-04:~# dpkg --configure -a
aber nicht von:
bekomme mit apt-get dist-upgrade einen Fehler
...
Hat sich aber nun mit der Ausgabe in: #12 (erstmal) erledigt.


[1] https://pve.proxmox.com/wiki/ZFS_on_Linux#_zfs_administration -> "Changing a failed bootable device"
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!