[SOLVED] Snapshot 6.xx vs 7.xx

valbuz

Member
Dec 27, 2019
35
0
11
58
Guten Tag Leute.

Ich habe hier ein etwas (für mich) merkwürdiges Verhalten.
2 Systeme habe ich am laufen. Proxmox 6.xx und 7.xx
6.xx:
Ich kann hier Backups und auch Snapshot’s machen. Die Backups werden via NFS auf eine Synology gemacht. Ebenfalls Restore ist möglich.

7.xx:
Hier dasselbe. Container erstellt, Snapshot und Backup auf dasselbe NAS via NFS kein Problem.
Nun Restore ich ein Container vom 6.xx System auf das 7.xx System. Der Container ist lauffähig, ebenfalls ein Backup zurück kann gemacht werden.
Was nicht möglich ist, sind Snapshot’s!
In der vzdump.conf habe ich noch den Pfad des tmp gesetzt (local).
Habe hier im Forum deshalb schon einiges durchgelesen. Dort wird jedoch immer von einem generellen Problem beim Schreiben via NFS geschrieben. Dies funzt bei mir ja….

Sind da in der Version 7.xx neu Restriktionen? Oder mache ich was falsch?

Danke für Eure Hilfe.

pveversion 6.xx:
Code:
proxmox-ve: 6.4-1 (running kernel: 5.4.140-1-pve)
pve-manager: 6.4-14 (running version: 6.4-14/15e2bf61)
pve-kernel-5.4: 6.4-15
pve-kernel-helper: 6.4-15
pve-kernel-5.3: 6.1-6
pve-kernel-5.4.174-2-pve: 5.4.174-2
pve-kernel-5.4.140-1-pve: 5.4.140-1
pve-kernel-5.4.114-1-pve: 5.4.114-1
pve-kernel-5.4.106-1-pve: 5.4.106-1
pve-kernel-5.4.103-1-pve: 5.4.103-1
pve-kernel-5.4.78-2-pve: 5.4.78-2
pve-kernel-5.4.73-1-pve: 5.4.73-1
pve-kernel-5.4.65-1-pve: 5.4.65-1
pve-kernel-5.4.60-1-pve: 5.4.60-2
pve-kernel-5.4.55-1-pve: 5.4.55-1
pve-kernel-5.4.44-2-pve: 5.4.44-2
pve-kernel-5.4.44-1-pve: 5.4.44-1
pve-kernel-5.4.41-1-pve: 5.4.41-1
pve-kernel-5.4.34-1-pve: 5.4.34-2
pve-kernel-5.3.18-3-pve: 5.3.18-3
pve-kernel-5.3.18-2-pve: 5.3.18-2
ceph-fuse: 12.2.11+dfsg1-2.1+b1
corosync: 3.1.5-pve2~bpo10+1
criu: 3.11-3
glusterfs-client: 5.5-3
ifupdown: 0.8.35+pve1
ksm-control-daemon: 1.3-1
libjs-extjs: 6.0.1-10
libknet1: 1.22-pve2~bpo10+1
libproxmox-acme-perl: 1.1.0
libproxmox-backup-qemu0: 1.1.0-1
libpve-access-control: 6.4-3
libpve-apiclient-perl: 3.1-3
libpve-common-perl: 6.4-4
libpve-guest-common-perl: 3.1-5
libpve-http-server-perl: 3.2-3
libpve-storage-perl: 6.4-1
libqb0: 1.0.5-1
libspice-server1: 0.14.2-4~pve6+1
lvm2: 2.03.02-pve4
lxc-pve: 4.0.6-2
lxcfs: 4.0.6-pve1
novnc-pve: 1.1.0-1
proxmox-backup-client: 1.1.13-2
proxmox-mini-journalreader: 1.1-1
proxmox-widget-toolkit: 2.6-2
pve-cluster: 6.4-1
pve-container: 3.3-6
pve-docs: 6.4-2
pve-edk2-firmware: 2.20200531-1
pve-firewall: 4.1-4
pve-firmware: 3.3-2
pve-ha-manager: 3.1-1
pve-i18n: 2.3-1
pve-qemu-kvm: 5.2.0-6
pve-xtermjs: 4.7.0-3
qemu-server: 6.4-2
smartmontools: 7.2-pve2
spiceterm: 3.1-1
vncterm: 1.6-2
zfsutils-linux: 2.0.7-pve1

pveversion 7.xx
Code:
proxmox-ve: 7.1-1 (running kernel: 5.13.19-2-pve)
pve-manager: 7.1-7 (running version: 7.1-7/df5740ad)
pve-kernel-helper: 7.1-6
pve-kernel-5.13: 7.1-5
pve-kernel-5.13.19-2-pve: 5.13.19-4
ceph-fuse: 15.2.15-pve1
corosync: 3.1.5-pve2
criu: 3.15-1+pve-1
glusterfs-client: 9.2-1
ifupdown2: 3.1.0-1+pmx3
ksm-control-daemon: 1.4-1
libjs-extjs: 7.0.0-1
libknet1: 1.22-pve2
libproxmox-acme-perl: 1.4.0
libproxmox-backup-qemu0: 1.2.0-1
libpve-access-control: 7.1-5
libpve-apiclient-perl: 3.2-1
libpve-common-perl: 7.0-14
libpve-guest-common-perl: 4.0-3
libpve-http-server-perl: 4.0-4
libpve-storage-perl: 7.0-15
libspice-server1: 0.14.3-2.1
lvm2: 2.03.11-2.1
lxc-pve: 4.0.11-1
lxcfs: 4.0.11-pve1
novnc-pve: 1.2.0-3
proxmox-backup-client: 2.1.2-1
proxmox-backup-file-restore: 2.1.2-1
proxmox-mini-journalreader: 1.3-1
proxmox-widget-toolkit: 3.4-4
pve-cluster: 7.1-2
pve-container: 4.1-2
pve-docs: 7.1-2
pve-edk2-firmware: 3.20210831-2
pve-firewall: 4.2-5
pve-firmware: 3.3-3
pve-ha-manager: 3.3-1
pve-i18n: 2.6-2
pve-qemu-kvm: 6.1.0-3
pve-xtermjs: 4.12.0-1
qemu-server: 7.1-4
smartmontools: 7.2-1
spiceterm: 3.2-2
swtpm: 0.7.0~rc1+2
vncterm: 1.7-1
zfsutils-linux: 2.1.1-pve3
 
Nutzen denn deine PVE6 und PVE7 Server den gleichen Storage-Typ? Können ja nicht alle Storages mit Snapsots umgehen und wie genau sich die Snapshots dann verhalten hängt auch wieder vom Storage ab.
 
Nutzen denn deine PVE6 und PVE7 Server den gleichen Storage-Typ? Können ja nicht alle Storages mit Snapsots umgehen und wie genau sich die Snapshots dann verhalten hängt auch wieder vom Storage ab.
Ja, ist genau derselbe NFS-Share und dieselbe Synology.
 
Hallo,
bitte die /etc/pve/storage.cfg und pct config <ID> von den relevanten Containern posten.
 
Hallo,
bitte die /etc/pve/storage.cfg und pct config <ID> von den relevanten Containern posten.
Habe etwas Probleme auf dem 6.xx System. Auf die storage.cfg kann ich nicht zugreifen. (Berechtigungsprobleme....) und der Befehl pct wird nciht gefunden.:oops:
Hier die Ausgaben vom System 7.xx:
Code:
dir: local
        path /var/lib/vz
        content vztmpl,backup,iso

lvmthin: local-lvm
        thinpool data
        vgname pve
        content images,rootdir

nfs: fileserver
        export /volume1/Proxmox
        path /mnt/pve/fileserver
        server 192.168.0.20
        content vztmpl,backup,snippets,rootdir
        prune-backups keep-all=1

Code:
arch: amd64
cores: 1
hostname: unifi
memory: 512
net0: name=eth0,bridge=vmbr0,firewall=1,gw=192.168.0.3,hwaddr=46:1E:E0:D4:98:1B,ip=192.168.0.65/24,type=veth
onboot: 1
ostype: ubuntu
rootfs: fileserver:304/vm-304-disk-0.raw,size=8G
swap: 512
 
Habe etwas Probleme auf dem 6.xx System. Auf die storage.cfg kann ich nicht zugreifen. (Berechtigungsprobleme....) und der Befehl pct wird nciht gefunden.:oops:
Als root eingeloggt? Falls ja, was ist die Ausgabe von systemctl status pve-cluster.service?

Hier die Ausgaben vom System 7.xx:

Code:
dir: local
        path /var/lib/vz
        content vztmpl,backup,iso

lvmthin: local-lvm
        thinpool data
        vgname pve
        content images,rootdir

nfs: fileserver
        export /volume1/Proxmox
        path /mnt/pve/fileserver
        server 192.168.0.20
        content vztmpl,backup,snippets,rootdir
        prune-backups keep-all=1

Code:
arch: amd64
cores: 1
hostname: unifi
memory: 512
net0: name=eth0,bridge=vmbr0,firewall=1,gw=192.168.0.3,hwaddr=46:1E:E0:D4:98:1B,ip=192.168.0.65/24,type=veth
onboot: 1
ostype: ubuntu
rootfs: fileserver:304/vm-304-disk-0.raw,size=8G
swap: 512
Mit so einer Konfiguration sollte auch auf 6.x kein Snapshot möglich sein. Auf Datei-basierten Storages sind nur mit qcow2 Snapshots möglich; qcow2 kann allerdings nur für VMs verwendet werden. Sicher, dass das Volume in 6.x nicht auf local-lvm war?
 
Hier die Ausgabe:

Code:
pve-cluster.service - The Proxmox VE cluster filesystem
   Loaded: loaded (/lib/systemd/system/pve-cluster.service; enabled; vendor preset: enabled)
   Active: active (running) since Thu 2022-03-17 20:55:11 CET; 1 months 5 days ago
 Main PID: 844 (pmxcfs)
    Tasks: 13 (limit: 4915)
   Memory: 61.6M
   CGroup: /system.slice/pve-cluster.service
           └─844 /usr/bin/pmxcfs

Sorry, hab da einen Denkfehler gemacht. Auf dme 6.xx sind sie im local-lvm und ich habe beim Restoren "fileserver" ausgewählt. Dachte dies bezieht sich auf den Ursprung des Containers, also dort wo er gespeichert ist für das Restore.
Dann kann das Wochenende doch kommen ;)
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!