Restore eines CT nicht möglich

seppele

New Member
Mar 1, 2024
15
0
1
Hallo Leute,
ich bitte um eure Hilfe.

Ich habe einen Proxmox Container den ich 1x im Monat über die Backupfunktion sichere, gesicht wird auf ein Syno Nas.

Das funktioniert alles einwandfrei!
Ich hab im Container Ändeurngen vorgenommen und benötige jetzt aus dem Backup diverse Daten um die wieder im laufenden ystem einzufügen, meine Idee war ich spiele Das Backup in einen neuen Container und exportiere die Daten.
Das will aber leider nciht so wie ich will :)

Ich hab jetzt mehrere versionen des Restores ausprobiet und bekomme immmer die Ffehlermeldung das nicht genug Platz ist um das Backup einzuspielen.

Es läuft Proxmox: 8.1.10
Die PVE sagt: HD space 23.50% (22.07 GiB of 93.93 GiB)

1 Versuch war:
Ich erstelle einen Container mit Plattengrösse mehr as das Backup benötigt, wenn ich dann aber beim gestoppten Container auf Backup gehe ist der Restore Button ausgegraut und ich kann da keine Datei auswählen.

2 Versuch:
Ich bin auf den Storage zweig 'NFS-Backup-Syno' on node 'pve' gegangen wo ich die Backups speichere und hab da dann unter Backups die gewünschte Datei ausgewählt und dann Restore geclickt, hier konnte ich dann in einem Popup noch die Containernummer ändern und den Namen überschreiben, weiters gibts noch den punkt storage, hier konnte ich zwischen local-lvm und NFS-Backup_Syno auswählen, ich hab beides ausprobiert, ergebnis it immer das selbe, und zwar bricht das Restor ab weil kein Speicherplatz vorhanden ist.
Ich hab hier immer einen neuen nicht vorhandenen Container genommen weil einen bestehenen kann ich nicht auswählen.

Hier das Log:
Code:
recovering backed-up configuration from 'NFS-Backup-Syno:backup/vzdump-lxc-102-2025_01_01-00_00_30.tar.zst'
  Logical volume "vm-106-disk-0" created.
Creating filesystem with 8126464 4k blocks and 2031616 inodes
Filesystem UUID: d20a6807-ad7d-412c-a70e-7dd16acffc35
Superblock backups stored on blocks:
    32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
    4096000, 7962624
restoring 'NFS-Backup-Syno:backup/vzdump-lxc-102-2025_01_01-00_00_30.tar.zst' now..
extracting archive '/mnt/pve/NFS-Backup-Syno/dump/vzdump-lxc-102-2025_01_01-00_00_30.tar.zst'
tar: ./root/.npm/_cacache/content-v2/sha512/0a/ce/c2a5443a072ff4183d029261f2d4223191cea8d9f0e1219d4070ede1adc84ca6c9319325eedd6945a9be1a5b7cb37418283414a6d453bfcd932ebc1e6983: Wrote only 9728 of 10240 bytes
tar: ./root/.npm/_cacache/content-v2/sha512/5b: Cannot mkdir: No space left on device
tar: ./root/.npm/_cacache/content-v2/sha512/5b: Cannot mkdir: No space left on device
tar: ./root/.npm/_cacache/content-v2/sha512/5b/70: Cannot mkdir: No such file or directory
tar: ./root/.npm/_cacache/content-v2/sha512/5b: Cannot mkdir: No space left on device
tar: ./root/.npm/_cacache/content-v2/sha512/5b/70/71ea67644531ad9492123af543fe56ea8d394f3d40d33279576459d5c22f4d289ead88093a2d5765859326d7b5598acaa129c833a4ee56cfdd4f0ade5bd3: Cannot open: No such file or directory
tar: ./root/.npm/_cacache/content-v2/sha512/5b: Cannot mkdir: No space left on device
tar: ./root/.npm/_cacache/content-v2/sha512/5b/35: Cannot mkdir: No such file or directory
tar: ./root/.npm/_cacache/content-v2/sha512/5b: Cannot mkdir: No space left on device
tar: ./root/.npm/_cacache/content-v2/sha512/5b/35/9de6f2290f837c0048925775903594d142b983fb37c7ae699e4564770b15ecc7231e116f7cb207f1d758b0510b92209b044c4b58b2e051087fb82c138543: Cannot open: No such file or directory
tar: ./root/.npm/_cacache/content-v2/sha512/5b: Cannot mkdir: No space left on device
tar: ./root/.npm/_cacache/content-v2/sha512/5b/81: Cannot mkdir: No such file or directory
tar: ./root/.npm/_cacache/content-v2/sha512/5b: Cannot mkdir: No space left on device
tar: ./root/.npm/_cacache/content-v2/sha512/5b/81/9f2bedfd199faed26bf145551c545086ea0a68b1fcc49d2045db44ff354c1600a1b9f70413d5d51b4b5362c51200b11ba1a46738271eb9f5c12b1501f43e: Cannot open: 
.......
hab hier alles rausgelöscht aufgrund der größe!
.......
Total bytes read: 30960220160 (29GiB, 590MiB/s)
tar: Exiting with failure status due to previous errors
  Logical volume "vm-106-disk-0" successfully removed.
TASK ERROR: unable to restore CT 106 - command 'lxc-usernsexec -m u:0:100000:65536 -m g:0:100000:65536 -- tar xpf - --zstd --totals --one-file-system -p --sparse --numeric-owner --acls --xattrs '--xattrs-include=user.*' '--xattrs-include=security.capability' '--warning=no-file-ignored' '--warning=no-xattr-write' -C /var/lib/lxc/106/rootfs --skip-old-files --anchored --exclude './dev/*'' failed: exit code 2

Letzte Variante war dann über die Konsole:
Auch hier war das Problem das selbe, der Restor hat igendwann abgebrochen.

Könnt ihr mir sagen was ich falsch mache?

Danke
 
Hey die Aussage hier verstehe ich nicht "Ich hab hier immer einen neuen nicht vorhandenen Container genommen weil einen bestehenen kann ich nicht auswählen." Man kann in Proxmox niemals IDs zweimal verwenden weder lokal noch in Clustern (uinique IDs)

Normalerweise bindest du via Samba den externen Synology Storage ein, wie du es ja auch scheinbar gemacht hast weil du deine Backups darin speicherst.
Dann gehst du auf das Backup und sagst restore.
Wählst unter Target deine Synology aus (weil dein local-lvm scheinbar zu klein ist) und dann auf restore. (Eine nicht vorhandene ID verwenden)
Ich habe noch nie gesehen das das nicht funktioniert.
Wenn es dir aber nur um die Daten geht kannst du das Backup einfach entpacken. In dem Archiv sind einfach Ordner mit der standart Linux Struktur, wo du durchnavigieren kannst und das was du brauchst kopieren.

Geh in den Ordner wo die Backups sind (via console) und für darin das untar aus. (vzdum-* ist natürlich der name deines Backups.
tar --use-compress-program=unzstd -xvf vzdump-lxc-105-2025_01_26-11_53_03.tar.zst

Und dann kannst du in die entpackten Ordner (home, root, usr, var ....) und dort rauskopieren was du benötigst.

Bei vms (für dich nicht relevant aber falls das jemanden interessiert, das tar archiv entpacken und via
vma extract /pfad/zur/datei.vma /zielverzeichnis //Die Dateien entpacken.
 
  • Like
Reactions: Johannes S
Ich benötige leider Daten aus einer Influxdb und die kann ich nr exportieren wenn diese läuft.

Habs gerade nochmal versucht, hier ein Sceenshot vom Restore:
1737892024594.png

Erkennst du da einen Fehler?
Es its egal ob ich im Popup unter Storage local oder die syno auswähle.
 
Hast du als Storage schon local-lvm probiert? Genügend Platz muss natürlich vorhanden sein. Storage bezeichnet das Laufwerk, auf das zurückgespielt wird.
 
Was ich nicht sehen kann ist wie groß der container ist. Deine local-lvm ist ja nur 100gb, wenn aus der synology entpackt wird und das wird der container, dann kann es sein das deine local-lvm das nicht schafft von der größe.
Ich hatte den fall auch mal das beim entpacken siehst du das deine local Platte wächst bis sie voll ist und dann bricht der restore job ab. Ob das hier der fall ist kann ich dir nicht sagen.
Wenn du einen zweiten rechner hast oder auf deinem PC kannst du in virtualbox proxmox installieren und den container darin hochfahren.
Ein tipp weil ich das Problem auch immer hatte und das Forum voll damit ist, ich würde bei der proxmox installation immer die partition so setzen das die local nicht nur 100gig groß ist, dadurch geht dir der gesammte freie speicher der Festplatte verloren und ist unbrauchbar. Hatte den fall mit mehreren 4TB Nvems. Dann könntest du jetzt auch einfach die backups in local ziehen und dort verarbeiten.
 
  • Like
Reactions: Johannes S
Ich hab auch schon local-lvm ausprobiert selbes ergebnis.

Das Backup hat komprimiert 3,5GB und der Container drin 29GB


Was mir aufgefallen ist:

local (pve): Usage 23.50% (23.70 GB of 100.86 GB)
local-lvm (pve): Usage 9.99% (85.20 GB of 852.88 GB)

Wenn ich aber auf den pve knoten clicke und dann auf disk - lvm:
1737897262350.png


Kann ich die PVE Partition noch vergrössern ohne eine Neuinstallation?
 
Wenn du auf deiner Synology genug Platz hast, kannst du noch Folgendes probieren:

Unter Proxmox Datacenter --> Storage --> die ID deiner Synology --> danach "Edit" ausführen und im nachfolgend geöffneten Fenster in Content auch Container aktivieren. Danach die Wiederherstellung auf die Synology starten.
 
Last edited:
Mich stresst das aktuell sehr, wozu mache ich Backups wenn ich diese dann nicht wiederherstellen kann, die platte ist ja so gut wie leer am Platz kann ja eigentlich nicht ligen?!

Das mit der Synology könnte eine option sein um die Daten aus der Influxdb zu extrahieren aber ist keine Lösung wenn ich eins der System aus irgend einem Grund restoren will.
 
Also für mich ist das klar: nicht genügend Platz unter Root für 8126464 * 4096 Byte = 31 GB.
Bei mir geht das bisher immer, ich nutze zu 99% ZFS und habe genügend "kleine" SSDs, ZFS Raid1 mit 2x 500 GB für das System.
 
Last edited:
  • Like
Reactions: Johannes S
Hallo Leute, war ein paar Tage nicht im Lande darum jetzt erst wieder Zeit dafür gefunden.

Ich hab auch noch ein wenig gegooelt, jedenfalls habe ich jetzt alte Backups auf local gespeichert waren gelöscht sowie nicht benötigte Templates und Isos die ich noch dort hatte, hab nochmal über 10 GB frei gemacht.

Auf Root sind jetzt 80GB Frei von 100, das Backup hat komprimiert weniger als 4 Gb und entpackt 30GB.

Als Storage im Restore Popup hab ich local-lvm angegeben, das hat 800GB frei, die aber nichtmehr frei sind, warum ist nir nicht klar, hier ein paar ausgaben von die euch vielleicht mehr sasgen wir mir.

Ich hab das Gefühl es gibt hier ein Problem mit der Freigabe von Speicherplatz nach dem löschen von Container oder sowas, ich weis nicht was ich jetzt genau tun soll damit der Freie Speicher auch wieder frei ist, belegt sind auf local-lvm nur 10% wo ist also der Rest hingekommen :)

Code:
root@pve:~# df -h
Filesystem                    Size  Used Avail Use% Mounted on
udev                           16G     0   16G   0% /dev
tmpfs                         3.1G  2.0M  3.1G   1% /run
/dev/mapper/pve-root           94G   11G   80G  12% /
tmpfs                          16G   46M   16G   1% /dev/shm
tmpfs                         5.0M     0  5.0M   0% /run/lock
efivarfs                      128K  6.9K  117K   6% /sys/firmware/efi/efivars
/dev/nvme0n1p2               1022M   12M 1011M   2% /boot/efi
/dev/fuse                     128M   20K  128M   1% /etc/pve
192.168.1.105:/volume1/Share  2.7T  2.0T  776G  72% /mnt/pve/NFS-Backup-Syno
tmpfs                         3.1G     0  3.1G   0% /run/user/0

Code:
root@pve:~# vgs
  VG  #PV #LV #SN Attr   VSize    VFree
  pve   1  11   0 wz--n- <930.51g 16.00g

Code:
root@pve:~# lvs -a -o+seg_size
  LV                                 VG  Attr       LSize   Pool Origin        Data%  Meta%  Move Log Cpy%Sync Convert SSize
  data                               pve twi-aotz-- 794.30g                    9.59   0.59                             794.30g
  [data_tdata]                       pve Twi-ao---- 794.30g                                                            794.30g
  [data_tmeta]                       pve ewi-ao----   8.10g                                                              8.10g
  [lvol0_pmspare]                    pve ewi-------   8.10g                                                              8.10g
  root                               pve -wi-ao----  96.00g                                                             96.00g
  snap_vm-100-disk-0_UnifiController pve Vri---tz-k   5.00g data vm-100-disk-0                                           5.00g
  snap_vm-102-disk-0_Influx-cleaning pve Vri---tz-k  31.00g data vm-102-disk-0                                          31.00g
  snap_vm-102-disk-0_ibroker_update  pve Vri---tz-k  16.00g data vm-102-disk-0                                          16.00g
  swap                               pve -wi-ao----   8.00g                                                              8.00g
  vm-100-disk-0                      pve Vwi-aotz--   5.00g data               92.71                                     5.00g
  vm-102-disk-0                      pve Vwi-aotz--  31.00g data               99.85                                    31.00g
  vm-103-disk-0                      pve Vwi-aotz--   8.00g data               22.77                                     8.00g
  vm-104-disk-0                      pve Vwi-aotz--   5.00g data               59.33                                     5.00g
  vm-105-disk-0                      pve Vwi-aotz--   3.00g data               81.01                                     3.00g

Ich hoffe jemand kann mir sagen was ich jetzt tun mus damit ich das wieder in den Griff bekomme.

Danke euch