[SOLVED] migrate lxc container mount point from lvm to zfs

em.tie

Active Member
Jun 13, 2018
20
0
41
44
Hallo Zusammen,

ich versuche gerade einen mount point (mp0) eines Containers von einem LVM Storage auf einen ZFS Pool zu verschieben. Leider bekomme ich immer die Fehlermeldung:

cannot open directory //zpool: No such file or directory

Was mache ich falsch? Bzw. welche Infos kann ich noch beisteuern, um das Problem zu lösen?

Vielen Dank für Eure Hilfe :)
 
die container config, und die storage.cfg wären initial mal hilfreich:
* `pct config $VMID`
* `cat /etc/pve/storage.cfg`

Ich nehme an das verschieben wird über die GUI gestartet?
 
Hi Stoiko,

vielen Dank für Deine Unterstützung. Hier die Ausgaben der Befehle

Code:
arch: amd64
cores: 1
hostname: tv01
memory: 3072
mp0: local-lvm:vm-105-disk-1,mp=/srv,size=300G
nameserver: 10.10.10.10 10.10.10.11
net0: name=eth0,bridge=vmbr0,firewall=1,gw=10.10.10.1,hwaddr=9A:2E:7D:92:77:4D,ip=10.10.10.10/24,tag=100,type=veth
onboot: 1
ostype: ubuntu
rootfs: local-lvm:vm-105-disk-0,size=4G
searchdomain: domain.tld
swap: 2048
unprivileged: 1

Code:
lvm: local-lvm
        vgname pve
        content rootdir,images

lvm: local-lvm2
        vgname pve2
        content rootdir,images
        nodes vhost03
        shared 0

zfspool: zfs-zpool
        pool zpool
        content rootdir,images
        nodes vhost02,vhost01
        sparse 0
 
bitte noch das output von:
* `zpool status`
* `zfs list`
* `mount`
*`zfs get all zpool`

sowie dem gesamten output (tasklog wenn in der GUI) vom 'Move Volume' task

danke!
 
Code:
  pool: zpool
 state: ONLINE
  scan: scrub repaired 0B in 0 days 02:45:30 with 0 errors on Tue Apr 21 15:45:51 2020
config:

        NAME        STATE     READ WRITE CKSUM
        zpool       ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            sda     ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
            sdf     ONLINE       0     0     0
          raidz1-1  ONLINE       0     0     0
            sdg     ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdi     ONLINE       0     0     0
            sdj     ONLINE       0     0     0

errors: No known data errors

Code:
NAME                      USED  AVAIL     REFER  MOUNTPOINT
zpool                    3,17T  1,93T      140K  none
zpool/subvol-118-disk-0  31,2G  68,8G     31,2G  none
zpool/vm-102-disk-0       490G  2,13T      284G  -
zpool/vm-112-disk-0      1,16T  1,93T     1,16T  -
zpool/vm-112-disk-1      1,50T  1,93T     1,50T  -

Code:
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
udev on /dev type devtmpfs (rw,nosuid,relatime,size=16407044k,nr_inodes=4101761,mode=755)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=3286016k,mode=755)
/dev/mapper/pve-root on / type ext4 (rw,relatime,errors=remount-ro)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
cgroup2 on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
bpf on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/rdma type cgroup (rw,nosuid,nodev,noexec,relatime,rdma)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=38,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=1830)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
mqueue on /dev/mqueue type mqueue (rw,relatime)
sunrpc on /run/rpc_pipefs type rpc_pipefs (rw,relatime)
debugfs on /sys/kernel/debug type debugfs (rw,relatime)
configfs on /sys/kernel/config type configfs (rw,relatime)
fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)
lxcfs on /var/lib/lxcfs type fuse.lxcfs (rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other)
/dev/fuse on /etc/pve type fuse (rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
binfmt_misc on /proc/sys/fs/binfmt_misc type binfmt_misc (rw,relatime)
tmpfs on /run/user/0 type tmpfs (rw,nosuid,nodev,relatime,size=3286012k,mode=700)

Code:
NAME   PROPERTY              VALUE                 SOURCE
zpool  type                  filesystem            -
zpool  creation              Mi Jun 12 21:13 2019  -
zpool  used                  3,17T                 -
zpool  available             1,93T                 -
zpool  referenced            140K                  -
zpool  compressratio         1.00x                 -
zpool  mounted               no                    -
zpool  quota                 none                  default
zpool  reservation           none                  default
zpool  recordsize            128K                  default
zpool  mountpoint            none                  local
zpool  sharenfs              off                   default
zpool  checksum              on                    default
zpool  compression           lz4                   local
zpool  atime                 on                    default
zpool  devices               on                    default
zpool  exec                  on                    default
zpool  setuid                on                    default
zpool  readonly              off                   default
zpool  zoned                 off                   default
zpool  snapdir               hidden                default
zpool  aclinherit            restricted            default
zpool  createtxg             1                     -
zpool  canmount              on                    default
zpool  xattr                 on                    default
zpool  copies                1                     default
zpool  version               5                     -
zpool  utf8only              off                   -
zpool  normalization         none                  -
zpool  casesensitivity       sensitive             -
zpool  vscan                 off                   default
zpool  nbmand                off                   default
zpool  sharesmb              off                   default
zpool  refquota              none                  default
zpool  refreservation        none                  local
zpool  guid                  14408054402977407555  -
zpool  primarycache          all                   default
zpool  secondarycache        all                   default
zpool  usedbysnapshots       0B                    -
zpool  usedbydataset         140K                  -
zpool  usedbychildren        3,17T                 -
zpool  usedbyrefreservation  0B                    -
zpool  logbias               latency               default
zpool  objsetid              51                    -
zpool  dedup                 off                   default
zpool  mlslabel              none                  default
zpool  sync                  standard              default
zpool  dnodesize             legacy                default
zpool  refcompressratio      1.00x                 -
zpool  written               140K                  -
zpool  logicalused           2,05T                 -
zpool  logicalreferenced     40K                   -
zpool  volmode               default               default
zpool  filesystem_limit      none                  default
zpool  snapshot_limit        none                  default
zpool  filesystem_count      none                  default
zpool  snapshot_count        none                  default
zpool  snapdev               hidden                default
zpool  acltype               off                   default
zpool  context               none                  default
zpool  fscontext             none                  default
zpool  defcontext            none                  default
zpool  rootcontext           none                  default
zpool  relatime              off                   default
zpool  redundant_metadata    all                   default
zpool  overlay               off                   default
zpool  encryption            off                   default
zpool  keylocation           none                  default
zpool  keyformat             none                  default
zpool  pbkdf2iters           0                     default
zpool  special_small_blocks  0                     default
 
zpool 3,17T 1,93T 140K none
hmm - der zpool hat (soweit ich sehe bewusst so konfiguriert) - keinen mountpoint und ist dementsprechend nicht gemounted.
der pool/die datasets im pool müssen jedoch gemounted sein.

bitte mal einfach die mountpoint property setzen und versuchen zu mounten:
* `zfs set zpool mountpoint=/zpool`
* `zfs mount -a`
 
Hallo Stoiko,

vielen Dank. Ich habe zfs set mountpoint=/zpool zpool genutzt und jetzt läuft es! Wird der mountpoint beim reboot automatisch übernommen?

Nochmals vielen Dank. :)

cu emtie
 
Wird der mountpoint beim reboot automatisch übernommen?
Da der im zpool gespeichert ist sollte das problemlos einen reboot ueberstehen ;)
(im zweifelsfall bald testen, dann ist klar woran es liegt, falls es nicht geht )
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!