Guck was df -h
, lvs
und zfs list -o space
sagen. Vermutlich ist dein Root-Dateisystem voll. Dann müsstest du so lange Dinge löschen, bis du wieder Platz hast.
Übliche verdächtige sind Backups, ISOs, Templates und was du sonst so auf dem Root-Dateisystem gespeichert hast.
Fehlgeschlagene ISO-Uploads können auch dein "/etc/tmp"-Ordner zumüllen. Logs im "/var/log"-Ordner wachsen auch mit der Zeit.
Und sofern du irgendwelche internen/externen Disks oder SMB/NFS Shares manuell über die fstab eingebunden hast, um diese als Directory-Storage zu nutzen, dann aber das "is_mountpoint: yes" vergessen hast, dann kann es auch sein, dass du dir versehentlich das Root-Dateisystem zugemüllt hast. Weil bei einem Mountfehler dann die Daten auf dem Root-Dateisystem landen, wenn in einen leeren Mountpoint geschrieben wird, anstatt auf die interne/externe Disk oder den SMB/NFS Share. Da hilft es dann nur, wenn man alle selbstgemounteten Dateisysteme aushängt. Die Mountpoints sollten dann leer sein. Sind sie es nicht, dann hat man in einen leeren Mountpoint geschrieben und sollte die Daten dort löschen. Aber vergewissern, dass der Mountpoint wirklich ausgehängt ist, damit man nicht die falschen Daten löscht.
Falls du ZFS nutzt, dann teilen sich VM/LXC Storage ("local-zfs") und Root-Dateisystem ("local") dynamisch die Kapazität. Je mehr da dann dein "local-zfs" an Platz verbraucht, desto weniger hat dein "local" zur Verfügung. Im Falle von ZFS kann es also auch helfen, wenn man VMs/LXCs oder dessen Snapshots löscht, um mehr Kapazität für das Root-Dateisystem zu bekommen.
Nach dem löschen kann man dann auch ein fstrim -a
ausführen, bzw ein zpool trim rpool
.