Hi,
ich möchte einen Container, der auf einem anderen Proxmox Server ohne Ceph erstellt wurde (local-zfs Storage) auf einen neuen Proxmox Server mit Ceph wiederherstellen. Die Wiederherstellung läuft über ein Backup via PBS.
Wenn ich den Container nun direkt auf dem Ceph Storage wiederherstellen möchte, endet das in folgendem Fehler:
Wenn ich das auf dem neuen Server im local-zfs wiederherstelle, klappt es. Ich kann dann aber leider nicht die Container Disk in den Ceph Storage verschieben:
Die "No space left on device (28)" Meldung kann ich nicht nachvollziehen. Es ist ausreichend Platz vorhanden.
Edit: Einen Container neu erstellen auf dem Ceph Storage funktioniert. Es geht also nur bei bereits existenten Containern nicht, die ursprünglich auf lokalem ZFS Speicher erstellt wurden.
ich möchte einen Container, der auf einem anderen Proxmox Server ohne Ceph erstellt wurde (local-zfs Storage) auf einen neuen Proxmox Server mit Ceph wiederherstellen. Die Wiederherstellung läuft über ein Backup via PBS.
Wenn ich den Container nun direkt auf dem Ceph Storage wiederherstellen möchte, endet das in folgendem Fehler:
Code:
recovering backed-up configuration from 'pbs-gst-01:backup/ct/124/2024-05-07T08:32:04Z'
/dev/rbd0
Creating filesystem with 2097152 4k blocks and 524288 inodes
Filesystem UUID: 99f54321-1427-4d73-a01f-b1544489c757
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632
restoring 'pbs-gst-01:backup/ct/124/2024-05-07T08:32:04Z' now..
Error: error extracting archive - encountered unexpected error during extraction: error at entry "debug.log": failed to extract file: failed to copy file contents: No space left on device (os error 28)
Removing image: 1% complete...
...
Removing image: 100% complete...done.
TASK ERROR: unable to restore CT 124 - command 'lxc-usernsexec -m u:0:100000:65536 -m g:0:100000:65536 -- /usr/bin/proxmox-backup-client restore '--crypt-mode=none' ct/124/2024-05-07T08:32:04Z root.pxar /var/lib/lxc/124/rootfs --allow-existing-dirs --repository srv-00-11@pbs!pve@srv-00-11:pbs-gst-01' failed: exit code 255
Wenn ich das auf dem neuen Server im local-zfs wiederherstelle, klappt es. Ich kann dann aber leider nicht die Container Disk in den Ceph Storage verschieben:
Code:
/dev/rbd0
Creating filesystem with 2097152 4k blocks and 524288 inodes
Filesystem UUID: c35905cf-f4c6-456f-ba2c-1451a14e8f73
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632
rsync: [receiver] write failed on "/var/lib/lxc/124/.copy-volume-1/var/www/html/kanboard/data/debug.log": No space left on device (28)
rsync error: error in file IO (code 11) at receiver.c(380) [receiver=3.2.7]
rsync: [sender] write error: Broken pipe (32)
Removing image: 1% complete...
...
Removing image: 100% complete...done.
TASK ERROR: command 'rsync --stats -X -A --numeric-ids -aH --whole-file --sparse --one-file-system '--bwlimit=0' /var/lib/lxc/124/.copy-volume-2/ /var/lib/lxc/124/.copy-volume-1' failed: exit code 11
Die "No space left on device (28)" Meldung kann ich nicht nachvollziehen. Es ist ausreichend Platz vorhanden.
Edit: Einen Container neu erstellen auf dem Ceph Storage funktioniert. Es geht also nur bei bereits existenten Containern nicht, die ursprünglich auf lokalem ZFS Speicher erstellt wurden.
Last edited: