Wir benutzen zsync um unsere Server zu migrieren.
(https://pve.proxmox.com/wiki/PVE-zsync)
pve-zsync sync --source 126 --dest 192.168.1.92:zfs --name nvme --maxsnap 2 --limit 50000 --method ssh --source-user root --dest-user root --verbose
Es ist im Proxmox eingestellt, dass die Disk 100GB groß ist bei einer VM (LXC).
Auf dem neuen Server ist die Disk aber auch nach dem Login in den kopierten vServer so groß wie der noch verfügbare Speicher des ZFS Pools.
alter Proxmox Server:
rpool/subvol-103-disk-0 9,00G 92,5G 7,51G /rpool/subvol-103-disk-0
in der VM (LXC):
df -h
Filesystem Size Used Avail Use% Mounted on
rpool/subvol-103-disk-0 100G 7.6G 93G 8% /
neuer Proxmox Server (192.168.1.92):
zfs/subvol-103-disk-0 7.52G 3.85T 7.49G /zfs/subvol-103-disk-0
in der VM (LXC):
df -h
Filesystem Size Used Avail Use% Mounted on
zfs/subvol-103-disk-0 324G 7.6G 3.85T 1% /
Dies ist schlecht, da so die Maschinen größere Disks haben und zwar diese größe, die im ZFS Pool noch AVAIL ist.
Wie können wir dies korrigieren?
Vielen Dank.
(https://pve.proxmox.com/wiki/PVE-zsync)
pve-zsync sync --source 126 --dest 192.168.1.92:zfs --name nvme --maxsnap 2 --limit 50000 --method ssh --source-user root --dest-user root --verbose
Es ist im Proxmox eingestellt, dass die Disk 100GB groß ist bei einer VM (LXC).
Auf dem neuen Server ist die Disk aber auch nach dem Login in den kopierten vServer so groß wie der noch verfügbare Speicher des ZFS Pools.
alter Proxmox Server:
rpool/subvol-103-disk-0 9,00G 92,5G 7,51G /rpool/subvol-103-disk-0
in der VM (LXC):
df -h
Filesystem Size Used Avail Use% Mounted on
rpool/subvol-103-disk-0 100G 7.6G 93G 8% /
neuer Proxmox Server (192.168.1.92):
zfs/subvol-103-disk-0 7.52G 3.85T 7.49G /zfs/subvol-103-disk-0
in der VM (LXC):
df -h
Filesystem Size Used Avail Use% Mounted on
zfs/subvol-103-disk-0 324G 7.6G 3.85T 1% /
Dies ist schlecht, da so die Maschinen größere Disks haben und zwar diese größe, die im ZFS Pool noch AVAIL ist.
Wie können wir dies korrigieren?
Vielen Dank.