Migration und Backup

Dec 10, 2016
41
0
6
Hallo,
Ich habe 2 Fragen zu meinem Proxmox Cluster:

1. Wenn ich versuche eine Migration durchzuführen kommt folgender Fehler:
Code:
()
Jun 04 16:27:33 starting migration of VM 125 to node 'pve01cp01' (193.70.9.4)
Jun 04 16:28:13 ERROR: Failed to sync data - mkdir /mnt/backup: Die Datei existiert bereits at /usr/share/perl5/PVE/Storage/DirPlugin.pm line 97.
Jun 04 16:28:13 aborting phase 1 - cleanup resources
Jun 04 16:28:13 ERROR: migration aborted (duration 00:00:41): Failed to sync data - mkdir /mnt/backup: Die Datei existiert bereits at /usr/share/perl5/PVE/Storage/DirPlugin.pm line 97.
TASK ERROR: migration aborted

2. Wenn ich ein Backup erstelle und den Modus Snapshot auswähle ist meine VM während des Backups trozdem nicht erreichbar.
Kann mir jemand bei diesen Problemen helfen?

Vielen dank im vorraus.
 

fireon

Famous Member
Oct 25, 2010
3,079
196
83
Austria/Graz
iteas.at
Was für eine Version von PVE verwendest du denn? Bitte poste doch mal
Code:
pveversion -v
pveperf
 
Dec 10, 2016
41
0
6
Hallo,
Danke für die Antwort hier die benötigten Daten:
Code:
root@pve01cp01:~# pveversion -v
proxmox-ve: 4.4-88 (running kernel: 4.4.49-1-pve)
pve-manager: 4.4-13 (running version: 4.4-13/7ea56165)
pve-kernel-4.4.35-1-pve: 4.4.35-77
pve-kernel-4.4.35-2-pve: 4.4.35-79
pve-kernel-4.4.21-1-pve: 4.4.21-71
pve-kernel-4.4.44-1-pve: 4.4.44-84
pve-kernel-4.4.49-1-pve: 4.4.49-86
pve-kernel-4.4.62-1-pve: 4.4.62-88
lvm2: 2.02.116-pve3
corosync-pve: 2.4.2-2~pve4+1
libqb0: 1.0.1-1
pve-cluster: 4.0-50
qemu-server: 4.0-110
pve-firmware: 1.1-11
libpve-common-perl: 4.0-95
libpve-access-control: 4.0-23
libpve-storage-perl: 4.0-76
pve-libspice-server1: 0.12.8-2
vncterm: 1.3-2
pve-docs: 4.4-4
pve-qemu-kvm: 2.7.1-4
pve-container: 1.0-100
pve-firewall: 2.0-33
pve-ha-manager: 1.0-40
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u3
lxc-pve: 2.0.7-4
lxcfs: 2.0.6-pve1
criu: 1.6.0-1
novnc-pve: 0.5-9
smartmontools: 6.5+svn4324-1~pve80
zfsutils: 0.6.5.9-pve15~bpo80
openvswitch-switch: 2.6.0-2
ceph: 0.94.10-1~bpo80+1
Code:
root@pve01cp01:~# pveperf
CPU BOGOMIPS:      35200.00
REGEX/SECOND:      2031951
HD SIZE:           19.10 GB (/dev/sda1)
BUFFERED READS:    303.84 MB/sec
AVERAGE SEEK TIME: 0.12 ms
FSYNCS/SECOND:     3128.59
DNS EXT:           11.54 ms
DNS INT:           14.56 ms
 

Deleted member 34654

Guest
Hallo wie ist denn der Aufbau von dem Cluster hast du drei Server und hast du sonst alles am laufen oder gibt's da schon Probleme? Ist das ein HA Cluster?
 
Dec 10, 2016
41
0
6
Hallo Markus,
Vielen dank für deine Antwort, mein Cluster besteht aus 3 Servern die in einem HA Cluster verbunden sind.
Die VM-Daten werden mit Ceph synchronisiert. Das Cluster läuft auch soweit. Das Problem ist soweit ich das eingrenzen kann aufgetreten nachdem ich einen Backupjob abgebrochen habe weil die VM während des Jobs nicht mehr zu erreichen war.
 

Deleted member 34654

Guest
Ist die vm noch "lock"?

Versuch mal das =
qm unlock "vmid"

Ist jetzt nur ein Schuss ins Blaue aber ggf hilft es. Und wenn nicht meld dich nochmal
 

fabian

Proxmox Staff Member
Staff member
Jan 7, 2016
3,508
545
118
bitte poste mal den output von "cat /proc/mounts" und den inhalt von /etc/pve/storage.cfg
 
Dec 10, 2016
41
0
6
Hallo Fabian,

Hier die Daten:
Code:
/etc/pve/storage.cfg

dir: local
    path /var/lib/vz
    content rootdir,images
    shared 0
    maxfiles 0

rbd: vm-data
    monhost 10.10.1.1;10.10.1.2;10.10.1.3
    content rootdir,images
    krbd 1
    username admin
    pool vm-data

dir: backup
    path /mnt/backup/vm-data
    content backup
    shared 0
    maxfiles 1

dir: iso-data
    path /mnt/iso-data
    content iso,vztmpl
    shared 0
    maxfiles 1
Host1:
Code:
cat /proc/mounts
sysfs /sys sysfs rw,relatime 0 0
proc /proc proc rw,relatime 0 0
udev /dev devtmpfs rw,relatime,size=10240k,nr_inodes=4101547,mode=755 0 0
devpts /dev/pts devpts rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000 0 0
tmpfs /run tmpfs rw,nosuid,relatime,size=6568424k,mode=755 0 0
/dev/sda1 / ext3 rw,relatime,errors=remount-ro,data=ordered 0 0
securityfs /sys/kernel/security securityfs rw,nosuid,nodev,noexec,relatime 0 0
tmpfs /dev/shm tmpfs rw,nosuid,nodev 0 0
tmpfs /run/lock tmpfs rw,nosuid,nodev,noexec,relatime,size=5120k 0 0
tmpfs /sys/fs/cgroup tmpfs ro,nosuid,nodev,noexec,mode=755 0 0
cgroup /sys/fs/cgroup/systemd cgroup rw,nosuid,nodev,noexec,relatime,xattr,release_agent=/lib/systemd/systemd-cgroups-agent,name=systemd 0 0
pstore /sys/fs/pstore pstore rw,nosuid,nodev,noexec,relatime 0 0
cgroup /sys/fs/cgroup/cpuset cgroup rw,nosuid,nodev,noexec,relatime,cpuset,clone_children 0 0
cgroup /sys/fs/cgroup/cpu,cpuacct cgroup rw,nosuid,nodev,noexec,relatime,cpu,cpuacct 0 0
cgroup /sys/fs/cgroup/blkio cgroup rw,nosuid,nodev,noexec,relatime,blkio 0 0
cgroup /sys/fs/cgroup/memory cgroup rw,nosuid,nodev,noexec,relatime,memory 0 0
cgroup /sys/fs/cgroup/devices cgroup rw,nosuid,nodev,noexec,relatime,devices 0 0
cgroup /sys/fs/cgroup/freezer cgroup rw,nosuid,nodev,noexec,relatime,freezer 0 0
cgroup /sys/fs/cgroup/net_cls,net_prio cgroup rw,nosuid,nodev,noexec,relatime,net_cls,net_prio 0 0
cgroup /sys/fs/cgroup/perf_event cgroup rw,nosuid,nodev,noexec,relatime,perf_event,release_agent=/run/cgmanager/agents/cgm-release-agent.perf_event 0 0
cgroup /sys/fs/cgroup/hugetlb cgroup rw,nosuid,nodev,noexec,relatime,hugetlb,release_agent=/run/cgmanager/agents/cgm-release-agent.hugetlb 0 0
cgroup /sys/fs/cgroup/pids cgroup rw,nosuid,nodev,noexec,relatime,pids,release_agent=/run/cgmanager/agents/cgm-release-agent.pids 0 0
systemd-1 /proc/sys/fs/binfmt_misc autofs rw,relatime,fd=23,pgrp=1,timeout=300,minproto=5,maxproto=5,direct 0 0
mqueue /dev/mqueue mqueue rw,relatime 0 0
hugetlbfs /dev/hugepages hugetlbfs rw,relatime 0 0
debugfs /sys/kernel/debug debugfs rw,relatime 0 0
fusectl /sys/fs/fuse/connections fusectl rw,relatime 0 0
/dev/mapper/pve-data /var/lib/vz ext3 rw,relatime,data=ordered 0 0
rpc_pipefs /run/rpc_pipefs rpc_pipefs rw,relatime 0 0
//ftpback-rbx2-37.ovh.net/ns3057014.ip-193-70-9.eu /mnt/backup cifs rw,relatime,,domain=FTPBACK-RBX2-37,uid=0,noforceuid,gid=0,noforcegid,addr=213.251.188.87,unix,posixpaths,serverino,mapposix,acl,rsize=1048576,wsize=65536,actimeo=1 0 0
//ftpback-rbx2-37.ovh.net/ns3057014.ip-193-70-9.eu/iso-data /mnt/iso-data cifs r,domain=FTPBACK-RBX2-37,uid=0,noforceuid,gid=0,noforcegid,addr=213.251.188.87,unix,posixpaths,serverino,mapposix,acl,rsize=1048576,wsize=65536,actimeo=1 0 0
lxcfs /var/lib/lxcfs fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other 0 0
cgmfs /run/cgmanager/fs tmpfs rw,relatime,size=100k,mode=755 0 0
/dev/sdd1 /var/lib/ceph/osd/ceph-1 xfs rw,noatime,attr2,inode64,noquota 0 0
/dev/sdc1 /var/lib/ceph/osd/ceph-0 xfs rw,noatime,attr2,inode64,noquota 0 0
/dev/fuse /etc/pve fuse rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other 0 0
Host 2:

Code:
cat /proc/mounts
sysfs /sys sysfs rw,relatime 0 0
proc /proc proc rw,relatime 0 0
udev /dev devtmpfs rw,relatime,size=10240k,nr_inodes=4101548,mode=755 0 0
devpts /dev/pts devpts rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000 0 0
tmpfs /run tmpfs rw,nosuid,relatime,size=6568424k,mode=755 0 0
/dev/sda1 / ext3 rw,relatime,errors=remount-ro,data=ordered 0 0
securityfs /sys/kernel/security securityfs rw,nosuid,nodev,noexec,relatime 0 0
tmpfs /dev/shm tmpfs rw,nosuid,nodev 0 0
tmpfs /run/lock tmpfs rw,nosuid,nodev,noexec,relatime,size=5120k 0 0
tmpfs /sys/fs/cgroup tmpfs rw,mode=755 0 0
cgroup /sys/fs/cgroup/systemd cgroup rw,nosuid,nodev,noexec,relatime,xattr,release_agent=/lib/systemd/systemd-cgroups-agent,name=systemd 0 0
pstore /sys/fs/pstore pstore rw,nosuid,nodev,noexec,relatime 0 0
cgroup /sys/fs/cgroup/cpuset cgroup rw,nosuid,nodev,noexec,relatime,cpuset,clone_children 0 0
cgroup /sys/fs/cgroup/cpu,cpuacct cgroup rw,nosuid,nodev,noexec,relatime,cpu,cpuacct 0 0
cgroup /sys/fs/cgroup/blkio cgroup rw,nosuid,nodev,noexec,relatime,blkio 0 0
cgroup /sys/fs/cgroup/memory cgroup rw,nosuid,nodev,noexec,relatime,memory 0 0
cgroup /sys/fs/cgroup/devices cgroup rw,nosuid,nodev,noexec,relatime,devices 0 0
cgroup /sys/fs/cgroup/freezer cgroup rw,nosuid,nodev,noexec,relatime,freezer 0 0
cgroup /sys/fs/cgroup/net_cls,net_prio cgroup rw,nosuid,nodev,noexec,relatime,net_cls,net_prio 0 0
cgroup /sys/fs/cgroup/perf_event cgroup rw,nosuid,nodev,noexec,relatime,perf_event,release_agent=/run/cgmanager/agents/cgm-release-agent.perf_event 0 0
cgroup /sys/fs/cgroup/hugetlb cgroup rw,nosuid,nodev,noexec,relatime,hugetlb,release_agent=/run/cgmanager/agents/cgm-release-agent.hugetlb 0 0
cgroup /sys/fs/cgroup/pids cgroup rw,nosuid,nodev,noexec,relatime,pids,release_agent=/run/cgmanager/agents/cgm-release-agent.pids 0 0
systemd-1 /proc/sys/fs/binfmt_misc autofs rw,relatime,fd=21,pgrp=1,timeout=300,minproto=5,maxproto=5,direct 0 0
mqueue /dev/mqueue mqueue rw,relatime 0 0
debugfs /sys/kernel/debug debugfs rw,relatime 0 0
hugetlbfs /dev/hugepages hugetlbfs rw,relatime 0 0
fusectl /sys/fs/fuse/connections fusectl rw,relatime 0 0
/dev/mapper/pve-data /var/lib/vz ext3 rw,relatime,data=ordered 0 0
rpc_pipefs /run/rpc_pipefs rpc_pipefs rw,relatime 0 0
//ftpback-rbx2-37.ovh.net/ns3057014.ip-193-70-9.eu/iso-data /mnt/iso-data cifs r,domain=FTPBACK-RBX2-37,uid=0,noforceuid,gid=0,noforcegid,addr=213.251.188.87,unix,posixpaths,serverino,mapposix,acl,rsize=1048576,wsize=65536,actimeo=1 0 0
//ftpback-rbx2-123.ovh.net/ns3057031.ip-193-70-9.eu/ /mnt/backup cifs rw,relatim,domain=FTPBACK-RBX2-123,uid=0,noforceuid,gid=0,noforcegid,addr=91.121.190.77,unix,posixpaths,serverino,mapposix,acl,rsize=1048576,wsize=65536,actimeo=1 0 0
cgmfs /run/cgmanager/fs tmpfs rw,relatime,size=100k,mode=755 0 0
lxcfs /var/lib/lxcfs fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other 0 0
/dev/fuse /etc/pve fuse rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other 0 0
/dev/sdc1 /var/lib/ceph/osd/ceph-2 xfs rw,noatime,attr2,inode64,noquota 0 0
/dev/sdd1 /var/lib/ceph/osd/ceph-3 xfs rw,noatime,attr2,inode64,noquota 0 0
Host 3:

Code:
cat /proc/mounts
sysfs /sys sysfs rw,relatime 0 0
proc /proc proc rw,relatime 0 0
udev /dev devtmpfs rw,relatime,size=10240k,nr_inodes=4101548,mode=755 0 0
devpts /dev/pts devpts rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000 0 0
tmpfs /run tmpfs rw,nosuid,relatime,size=6568424k,mode=755 0 0
/dev/sda1 / ext3 rw,relatime,errors=remount-ro,data=ordered 0 0
securityfs /sys/kernel/security securityfs rw,nosuid,nodev,noexec,relatime 0 0
tmpfs /dev/shm tmpfs rw,nosuid,nodev 0 0
tmpfs /run/lock tmpfs rw,nosuid,nodev,noexec,relatime,size=5120k 0 0
tmpfs /sys/fs/cgroup tmpfs rw,mode=755 0 0
cgroup /sys/fs/cgroup/systemd cgroup rw,nosuid,nodev,noexec,relatime,xattr,release_agent=/lib/systemd/systemd-cgroups-agent,name=systemd 0 0
pstore /sys/fs/pstore pstore rw,nosuid,nodev,noexec,relatime 0 0
cgroup /sys/fs/cgroup/cpuset cgroup rw,nosuid,nodev,noexec,relatime,cpuset,clone_children 0 0
cgroup /sys/fs/cgroup/cpu,cpuacct cgroup rw,nosuid,nodev,noexec,relatime,cpu,cpuacct 0 0
cgroup /sys/fs/cgroup/blkio cgroup rw,nosuid,nodev,noexec,relatime,blkio 0 0
cgroup /sys/fs/cgroup/memory cgroup rw,nosuid,nodev,noexec,relatime,memory 0 0
cgroup /sys/fs/cgroup/devices cgroup rw,nosuid,nodev,noexec,relatime,devices 0 0
cgroup /sys/fs/cgroup/freezer cgroup rw,nosuid,nodev,noexec,relatime,freezer 0 0
cgroup /sys/fs/cgroup/net_cls,net_prio cgroup rw,nosuid,nodev,noexec,relatime,net_cls,net_prio 0 0
cgroup /sys/fs/cgroup/perf_event cgroup rw,nosuid,nodev,noexec,relatime,perf_event,release_agent=/run/cgmanager/agents/cgm-release-agent.perf_event 0 0
cgroup /sys/fs/cgroup/hugetlb cgroup rw,nosuid,nodev,noexec,relatime,hugetlb,release_agent=/run/cgmanager/agents/cgm-release-agent.hugetlb 0 0
cgroup /sys/fs/cgroup/pids cgroup rw,nosuid,nodev,noexec,relatime,pids,release_agent=/run/cgmanager/agents/cgm-release-agent.pids 0 0
systemd-1 /proc/sys/fs/binfmt_misc autofs rw,relatime,fd=23,pgrp=1,timeout=300,minproto=5,maxproto=5,direct 0 0
mqueue /dev/mqueue mqueue rw,relatime 0 0
debugfs /sys/kernel/debug debugfs rw,relatime 0 0
hugetlbfs /dev/hugepages hugetlbfs rw,relatime 0 0
fusectl /sys/fs/fuse/connections fusectl rw,relatime 0 0
/dev/mapper/pve-data /var/lib/vz ext3 rw,relatime,data=ordered 0 0
rpc_pipefs /run/rpc_pipefs rpc_pipefs rw,relatime 0 0
//ftpback-rbx2-37.ovh.net/ns3057014.ip-193-70-9.eu/iso-data /mnt/iso-data cifs r,domain=FTPBACK-RBX2-37,uid=0,noforceuid,gid=0,noforcegid,addr=213.251.188.87,unix,posixpaths,serverino,mapposix,acl,rsize=1048576,wsize=65536,actimeo=1 0 0
//ftpback-rbx3-228.ovh.net/ns3057032.ip-193-70-9.eu/ /mnt/backup cifs rw,relatim,domain=FTPBACK-RBX3-228,uid=0,noforceuid,gid=0,noforcegid,addr=91.121.190.182,unix,posixpaths,mapposix,acl,rsize=1048576,wsize=65536,actimeo=1 0 0
lxcfs /var/lib/lxcfs fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other 0 0
cgmfs /run/cgmanager/fs tmpfs rw,relatime,size=100k,mode=755 0 0
/dev/fuse /etc/pve fuse rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other 0 0
/dev/sdd1 /var/lib/ceph/osd/ceph-5 xfs rw,noatime,attr2,inode64,noquota 0 0
/dev/sdc1 /var/lib/ceph/osd/ceph-4 xfs rw,noatime,attr2,inode64,noquota 0 0
Ich hoffe das sind die richtigen daten.
 

fabian

Proxmox Staff Member
Staff member
Jan 7, 2016
3,508
545
118
und wie schaut die dazugehörige VM config aus dem ursprungspost aus? output von "pvesm status" wäre auch noch interessant..
 
Dec 10, 2016
41
0
6
Hier die ausgabe von pvesm status:
Code:
mkdir /mnt/backup: Die Datei existiert bereits at /usr/share/perl5/PVE/Storage/DirPlugin.pm line 96.
backup      dir 0               0               0               0 100.00%
iso-data    dir 1       524288000       103459840       420828160 20.23%
local       dir 1       436037240         1813392       412067768 0.94%
vm-data     rbd 1     11715358056      4583912592      7131445464 39.63%

Das Problem besteht ja bei allen VMs die im ersten post ist nur als beispiel da.
 

fabian

Proxmox Staff Member
Staff member
Jan 7, 2016
3,508
545
118
setz bitte mal die option "is_mountpoint" auf 1 und die option "mkdir" auf 0 (für den backup storage, wobeis für den iso-data storage vermutlich auch sinnvoll ist ;))

is_mountpoint sagt, dass der storage nur aktivierbar ist wenn genau an dem pfad etwas gemounted ist (sonst würde PVE die verzeichnisse im /mnt/backup ordner anlegen wenn der CIFS share nicht gemounted ist, und dann kannst du nicht mehr mounten weil der ordner nicht leer ist)
mkdir sagt, ob PVE die verzeichnisse (dump, templates, ..) anlegen soll - das funktioniert in deinem fall nicht (vielleicht wegen Samba und irgendwelchen berechtigungen?)
 
Dec 10, 2016
41
0
6
Bitte entschuldige die nachfrage aber wo soll ich die optionen setzen?
Ich mounte die beiden in der fstab datei:
Code:
# <file system>    <mount point>    <type>    <options>    <dump>    <pass>
/dev/sda1    /    ext3    errors=remount-ro    0    1
/dev/sda2    swap    swap    defaults    0    0
/dev/pve/data    /var/lib/vz    ext3    defaults    1    2
proc            /proc   proc    defaults        0       0
sysfs           /sys    sysfs   defaults        0       0
//{ServerIP} /mnt/backup cifs credentials={Pfad zur datei} 0 0
//{ServerIP}  /mnt/iso-data cifs credentials={Pfad zur datei} 0 0
 
Dec 10, 2016
41
0
6
Danke, für die Antwort.
Leider weiss ich nicht wie ich das in die datei eintragen muss. Ist das so richtig:
Code:
dir: iso-data
    path /mnt/iso-data
    content iso,vztmpl
    shared 0
    maxfiles 1
    is_mountpoint 1 
    mkdir 0
 

fireon

Famous Member
Oct 25, 2010
3,079
196
83
Austria/Graz
iteas.at
Beispiel:
Code:
dir: sicherung
        path /mnt/pve/sicherung
        content iso,backup,vztmpl
        is_mountpoint 1
        maxfiles 2
        shared 1
 
Dec 10, 2016
41
0
6
So habe den Fehler jetzt gefunden warum ich kein Backup machen konnte. Dies lag an der Firewall und die Einstellung is_mountpoint 1 hat geholfen.
Leider ist es mir immer noch nicht möglich ein Snapshot anzulegen, und gleichzeitig den Betrieb der VM aufrechtzuerhalten.
Das heißt wenn ich ein Backup (Snapshot Mode) oder ein Snapshot anlege ist die VM zwischenzeitlich offline. Was natürlich bei einem Produktiv System nicht gut ist.

Hat da noch jemand eine Idee?
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE and Proxmox Mail Gateway. We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!