[gelöst] Restore von CT schlägt fehl

David G.

Member
Aug 16, 2023
37
4
8
Hallo,



ich habe mir heute einen alten Rechner mit Proxmox aufgesetzt falls mir mein Hauptsystem abschmiert.



Nun habe ich schon 2 VMs testhalber auf den System über meinen PBS wiederhergestellt.



Der CT zum testen klappt aber nicht.

Im Restorefenster im PVE kommt:



Code:
recovering backed-up configuration from 'Tuxis:backup/ct/105/2024-12-20T19:18:24Z'

  Logical volume "vm-102-disk-0" created.

Creating filesystem with 1048576 4k blocks and 262144 inodes

Filesystem UUID: 218b58c6-a58b-42e3-9460-7dabdc78853b

Superblock backups stored on blocks:

    32768, 98304, 163840, 229376, 294912, 819200, 884736

restoring 'Tuxis:backup/ct/105/2024-12-20T19:18:24Z' now..

Error: error extracting archive - encountered unexpected error during extraction: error at entry "pkgcache.bin": failed to extract file: failed to copy file contents: No space left on device (os error 28)

  Logical volume "vm-102-disk-0" successfully removed.

TASK ERROR: unable to restore CT 102 - command 'lxc-usernsexec -m u:0:100000:65536 -m g:0:100000:65536 -- /usr/bin/proxmox-backup-client restore '--crypt-mode=none' ct/105/2024-12-20T19:18:24Z root.pxar /var/lib/lxc/102/rootfs --allow-existing-dirs --repository DB1777@pbs@pbs001.de.tuxis.eu:DB1777_Backup-Nuc' failed: exit code 255



Was könnte da mit dem Backup sein?
Das mit dem Speicher glaube ich nicht, der CT ist nur 500 groß und am PBS sind 70GB frei.

Screenshot_20241221_172133_Chrome.jpg

Am neuen PVE ist genug frei:

Screenshot_20241221_172242_Chrome.jpg
 
Last edited:
df ?
lsblk ?
lvs ?
lvdisplay ?
Code:
root@pve:~# df
Filesystem           1K-blocks    Used Available Use% Mounted on
udev                   3974576       0   3974576   0% /dev
tmpfs                   801676    1532    800144   1% /run
/dev/mapper/pve-root  69666032 2726620  63354800   5% /
tmpfs                  4008376   46800   3961576   2% /dev/shm
tmpfs                     5120       0      5120   0% /run/lock
efivarfs                   128      46        78  37% /sys/firmware/efi/efivars
/dev/fuse               131072      16    131056   1% /etc/pve
tmpfs                   801672       0    801672   0% /run/user/0
root@pve:~# lsblk
NAME                         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda                            8:0    0 232.9G  0 disk
├─sda1                         8:1    0  1007K  0 part
├─sda2                         8:2    0     1G  0 part
└─sda3                         8:3    0 231.9G  0 part
  ├─pve-swap                 252:0    0   7.6G  0 lvm  [SWAP]
  ├─pve-root                 252:1    0  68.1G  0 lvm  /
  ├─pve-data_tmeta           252:2    0   1.4G  0 lvm
  │ └─pve-data-tpool         252:4    0 137.4G  0 lvm
  │   ├─pve-data             252:5    0 137.4G  1 lvm
  │   ├─pve-vm--100--disk--0 252:6    0    32G  0 lvm
  │   ├─pve-vm--101--disk--0 252:7    0     8G  0 lvm
  │   ├─pve-vm--103--disk--0 252:8    0    32G  0 lvm
  │   └─pve-vm--102--disk--0 252:9    0     2G  0 lvm
  └─pve-data_tdata           252:3    0 137.4G  0 lvm
    └─pve-data-tpool         252:4    0 137.4G  0 lvm
      ├─pve-data             252:5    0 137.4G  1 lvm
      ├─pve-vm--100--disk--0 252:6    0    32G  0 lvm
      ├─pve-vm--101--disk--0 252:7    0     8G  0 lvm
      ├─pve-vm--103--disk--0 252:8    0    32G  0 lvm
      └─pve-vm--102--disk--0 252:9    0     2G  0 lvm
root@pve:~# lvs
  LV            VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data          pve twi-aotz-- <137.38g             49.17  2.41
  root          pve -wi-ao----  <68.06g
  swap          pve -wi-ao----    7.64g
  vm-100-disk-0 pve Vwi-a-tz--   32.00g data        98.03
  vm-101-disk-0 pve Vwi-a-tz--    8.00g data        65.40
  vm-102-disk-0 pve Vwi-a-tz--    2.00g data        61.85
  vm-103-disk-0 pve Vwi-a-tz--   32.00g data        92.82
root@pve:~# lvdisplay
  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV UUID                DuP4Wp-C5Np-7uJc-0FP3-uXJv-tGpn-xJ7pP7
  LV Write Access        read/write (activated read only)
  LV Creation host, time proxmox, 2024-12-21 14:59:51 +0100
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 0
  LV Size                <137.38 GiB
  Allocated pool data    49.17%
  Allocated metadata     2.41%
  Current LE             35169
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:5

  --- Logical volume ---
  LV Path                /dev/pve/swap
  LV Name                swap
  VG Name                pve
  LV UUID                FDo1Vz-L4FC-fcci-lvpd-w2bn-cAEA-aOysDf
  LV Write Access        read/write
  LV Creation host, time proxmox, 2024-12-21 14:59:45 +0100
  LV Status              available
  # open                 2
  LV Size                7.64 GiB
  Current LE             1957
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0

  --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV UUID                FBVe5g-88Cc-1u5E-CIB2-sfsC-4y5E-oB7P8f
  LV Write Access        read/write
  LV Creation host, time proxmox, 2024-12-21 14:59:45 +0100
  LV Status              available
  # open                 1
  LV Size                <68.06 GiB
  Current LE             17423
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1

  --- Logical volume ---
  LV Path                /dev/pve/vm-100-disk-0
  LV Name                vm-100-disk-0
  VG Name                pve
  LV UUID                lvlLh6-N714-JSlW-2aNa-QYfM-ktyQ-amChfY
  LV Write Access        read/write
  LV Creation host, time pve, 2024-12-21 15:42:08 +0100
  LV Pool name           data
  LV Status              available
  # open                 0
  LV Size                32.00 GiB
  Mapped size            98.03%
  Current LE             8192
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:6

  --- Logical volume ---
  LV Path                /dev/pve/vm-101-disk-0
  LV Name                vm-101-disk-0
  VG Name                pve
  LV UUID                aTSN2Y-FzJ7-EmLv-tJbk-LnQZ-jVa5-oXRk6q
  LV Write Access        read/write
  LV Creation host, time pve, 2024-12-21 16:19:50 +0100
  LV Pool name           data
  LV Status              available
  # open                 0
  LV Size                8.00 GiB
  Mapped size            65.40%
  Current LE             2048
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:7

  --- Logical volume ---
  LV Path                /dev/pve/vm-103-disk-0
  LV Name                vm-103-disk-0
  VG Name                pve
  LV UUID                M10exB-tUfM-DO5t-SV3m-VWCc-fvqo-rtj2ss
  LV Write Access        read/write
  LV Creation host, time pve, 2024-12-21 16:21:13 +0100
  LV Pool name           data
  LV Status              available
  # open                 0
  LV Size                32.00 GiB
  Mapped size            92.82%
  Current LE             8192
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:8

  --- Logical volume ---
  LV Path                /dev/pve/vm-102-disk-0
  LV Name                vm-102-disk-0
  VG Name                pve
  LV UUID                AGvF8u-xaO8-gsyJ-pICt-ZPzs-Hl1d-BvwVPt
  LV Write Access        read/write
  LV Creation host, time pve, 2024-12-21 17:11:04 +0100
  LV Pool name           data
  LV Status              available
  # open                 0
  LV Size                2.00 GiB
  Mapped size            61.85%
  Current LE             512
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:9

root@pve:~#
 
Mmh, sieht Platz-mäßig alles gut aus, insofern ist die FM merkartig.
Womöglich ist es ein Platzproblem auf dem pbs, der es ggf. erst in seinem /tmp auspackt ??
Wir benutzen (bzw. testen derzeit) kein vzdump noch pbs, weil wir alles mit Skripten im xfs nas und davon aus auf weiteres nas schieben.
 
Mmh, sieht Platz-mäßig alles gut aus, insofern ist die FM merkartig.
Womöglich ist es ein Platzproblem auf dem pbs, der es ggf. erst in seinem /tmp auspackt ??
Wir benutzen (bzw. testen derzeit) kein vzdump noch pbs, weil wir alles mit Skripten im xfs nas und davon aus auf weiteres nas schieben.
Auf dem PBS ist eigentlich auch genug frei.
Leider komme ich da nicht per SSH drauf.
Screenshot_20241221_175259_Chrome.jpg
 
Einen kleinereren CT habe ich eben wiederhergestellt.
Dann habe ich eine recht "große" VM gelöscht. Der kleine CT bricht aber noch mit der selben Meldung ab.
 
Lösch mal alle vm/lxc und dann probier mal den lxc 105 nochmal, in der Hoffnung, daß er dann geht ... und dann gucken wie groß er geworden ist.
 
Unverändert.
Hab auch mal neugestartet. Macht auch nichts....

Edit
So zeigt es der PBSScreenshot_20241221_191234_Chrome.jpg
 
Last edited:
Habe noch ein Backup auf einem anderen Server.
Nur sehr langsam. Das versuche ich gerade. Damit kann man ggf etwas ausschließen.

Würde mich wundern, wenn er so groß ist.
Ist eigentlich nur wireguard installiert über die proxmox helper scripts.
 
Vielleicht mal irgendwas Amok gelaufen und dann alles in's Backup ..., aber kann ja eigentlich nur max so viel wie die Platten vom lxc groß sind sein ...
 
So, der restore von dem anderen pbs hat mit der selben Meldung abgebrochen.

Ich kapiere das nicht.
Screenshot_20241221_211140_Chrome.jpg

Edit
Da ist aus dem ct der nicht klappt
Code:
david@vpn:~$ df
Filesystem             1K-blocks    Used Available Use% Mounted on
tank/subvol-105-disk-0   4194304 2869376   1324928  69% /
none                         492       4       488   1% /dev
udev                    16294640       0  16294640   0% /dev/tty
tmpfs                   16331968       0  16331968   0% /dev/shm
tmpfs                    6532788     108   6532680   1% /run
tmpfs                       5120       0      5120   0% /run/lock
tmpfs                    3266392       0   3266392   0% /run/user/1000
david@vpn:~$

Woher kommen die 16gb aus udev und tmpfs? Wobei die ja auch locker auf den pve passen.
 
Last edited:
Woher kommen die 16gb aus udev und tmpfs? Wobei die ja auch locker auf den pve passen.
Das sind nur default mem filesysteme und nehmen keinen Plattenplatz ein.

Womöglich stimmt was mit dem Backup des 105 nicht, denn der lxc ist ja wirklich mit 4GB sehr klein.
Und wenn du auf dem prod pve mal ein manuelles pve backup erstellst und das auf deinem Test pve einspielst, nur um mal das pbs außen vor zu lassen ?
 
Last edited:
Danke, die Links haben geholfen.
Hab den CT von 4GB auf 8GB vergrößert (Warum geht das eigentlich nicht in der Gui?) und ein Backup erstellt.

Und siehe da, es konnte wiederhergestellt werden.

Danke euch.
 
  • Like
Reactions: waltar
Kann einem auch das Genick brechen, wenn man bei seinem Test des Backups evtl was weniger Speicher belegt hat.

Wenn man dann drauf angewiesen ist, klappt es wegen sowas nicht. Dann kann man es nicht so leicht wie ich gerade umgehen.....

Edit
Aus meiner Sicht ein erheblicher Bug.
Die Fehlermeldung müsste genauer sein und am besten im Dialog vom restore eine Option die Größe des CT zu ändern.
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!