[SOLVED] Ganze viele Probleme nach Neustart

Eigentlich nicht. Kannst du zfs list -ospace,refreservation noch mal teilen? Denke auch daran, dass Snapshots mehr Platz belegen je mehr sich ändert.
liebendgerne. ich hoffe, dass es hilft.
Bash:
NAME                          AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD  REFRESERV
rpool                          289M   806G        0B    104K             0B       806G       none
rpool/ROOT                     289M  8.38G        0B     96K             0B      8.38G       none
rpool/ROOT/pve-1               289M  8.38G        0B   8.38G             0B         0B       none
rpool/data                     289M   793G        0B    136K             0B       793G       none
rpool/data/subvol-100-disk-0   289M   632G      127G    505G             0B         0B       none
rpool/data/subvol-102-disk-0   289M  3.91G      914M   3.01G             0B         0B       none
rpool/data/subvol-103-disk-0   289M  3.78G        0B   3.78G             0B         0B       none
rpool/data/subvol-104-disk-0   289M  93.2G     7.83G   85.4G             0B         0B       none
rpool/data/subvol-105-disk-0   289M   612M        0B    612M             0B         0B       none
rpool/data/subvol-106-disk-0   289M  2.09G        0B   2.09G             0B         0B       none
rpool/data/subvol-107-disk-0   289M   608M        0B    608M             0B         0B       none
rpool/data/subvol-108-disk-0   289M  1.68G        0B   1.68G             0B         0B       none
rpool/data/subvol-109-disk-0   289M   259M        0B    259M             0B         0B       none
rpool/data/vm-101-disk-0       289M    56K        0B     56K             0B         0B       none
rpool/data/vm-101-disk-1       289M  53.3G        0B   53.3G             0B         0B       none
rpool/data/vm-101-disk-2       289M   827M        0B    827M             0B         0B       none
rpool/var-lib-vz               289M  5.44G        0B   5.44G             0B         0B       none
mir fällt auf, dass der verfügbare speicher überall gleich ist, was vermutlich mit meinem problem verbunden ist

ich habe gerade auch gesehen, dass im PVE webinterface bei der Node zwar die disks mit sda1-sda3 aufgeführt werden, es aber keine LVMs, LVM-Thins oder directories gibt. ist das ein problem oder gut so?
 
Last edited:
Lösche mal wie bereits erwähnt die Snapshots von 100. USEDSNAP is von 40G~ auf 130G~ gestiegen und USEDDS gefallen. Bei einem puren ZFS System ist es nicht unüblich dass Sachen wie LVM fehlen.
 
Last edited:
Lösche mal wie bereits erwähnt die Snapshots von 100. USEDSNAP is von 40G~ auf 130G~ gestiegen. Bei einem puren ZFS System ist das nicht unüblich.
fertig. waren eh nur zwei. (ein älterer und einer als sicherung, bevor ich versuchen wollte, die RootDisk zu vergößern, was ich dann doch nicht gemacht habe)
 
es sieht wieder alles gut aus. keine ahnung, wie das geholfen hat aber sie erhalten meinen höchsten respekt. vielen lieben dank
Ein problem fällt mir noch bei einem meiner CTs auf, und zwar meinem Nginx Proxy Manager, der anscheinend probleme mit seinen DNS diensten hat bei update kann der den host raw.githubusercontent.com nicht resolven und apt update hat ähnliche fehlermeldungen

Bash:
Warning: Failed to fetch http://deb.debian.org/debian/dists/trixie/InRelease  Temporary failure resolving 'deb.debian.org'
Warning: Failed to fetch http://deb.debian.org/debian/dists/trixie-updates/InRelease  Temporary failure resolving 'deb.debian.org'
Warning: Failed to fetch http://security.debian.org/dists/trixie-security/InRelease  Temporary failure resolving 'security.debian.org'
Warning: Failed to fetch https://deb.nodesource.com/node_22.x/dists/nodistro/InRelease  Temporary failure resolving 'deb.nodesource.com'
Warning: Failed to fetch http://openresty.org/package/debian/dists/bullseye/InRelease  Temporary failure resolving 'openresty.org'
Warning: Some index files failed to download. They have been ignored, or old ones used instead.