Entfernung eines Templates wegen nicht gemounteten Festplatten nicht möglich

swift_jan

Active Member
Aug 31, 2020
42
2
28
25
Germany, Lower Saxony, near Brunswick
Hallo :)

Ich bin seit kurzem von ESXi auf Proxmox gewechselt und somit in dieser Welt noch sehr neu.

Ich habe mir einen kleinen Cluster aus drei Baugleichen Rechnern gebaut und hatte versucht die jeweiligen Festplatten untereinander zu Verteilen, was mit dem Fehler von nicht gemounteten Platten einherging. In diesem Zeitraum wollte ich mich mehr herumprobieren und schauen was ich mit Templates alles anstellen kann und habe ein Template von einer frischen Ubuntu VM erstellt. Jetzt wollte ich diese löschen, aber der Vorgang schlägt fehl mit der Meldung dass die anderen Platten aus den anderen beiden Nodes nicht gemountet sind... Wie kann ich diese Platten jetzt wieder von den jeweiligen anderen Nodes entfernen und auch das Template wieder löschen?

Danke im Voraus

LG Jan :)
 
bitte die vm config (qm config ID), die storage config (/etc/pve/storage.cfg) und die genaue fehlermeldung posten
 
Hallo dcsapak

Hier die Fehlermeldung:
"storage2" kann auch "storage3" sein, weil ich die so in den einzelnen Nodes benannt habe.

/usr/bin/chattr: No such file or directory while trying to stat /mnt/pve/storage1/images/104/base-104-disk-0.qcow2
command '/usr/bin/chattr -i /mnt/pve/storage1/images/104/base-104-disk-0.qcow2' failed: exit code 1
disk image '/mnt/pve/storage1/images/104/base-104-disk-0.qcow2' does not exist
TASK ERROR: unable to activate storage 'storage2' - directory is expected to be a mount point but is not mounted: '/mnt/pve/storage2'

vm config:
balloon: 2048
bootdisk: scsi0
cores: 2
memory: 3072
name: ct-ubuntu
net0: virtio=72:6E:70:BB:13:55,bridge=vmbr0,firewall=1
numa: 0
ostype: l26
scsi0: storage1:104/base-104-disk-0.qcow2,size=12G
scsihw: virtio-scsi-pci
smbios1: uuid=88f0df5f-96f4-4905-9214-455967cdeb4e
sockets: 1
template: 1

und die storage config:

dir: local
path /var/lib/vz
content backup,iso,vztmpl

lvmthin: local-lvm
thinpool data
vgname pve
content rootdir,images

dir: storage1
path /mnt/pve/storage1
content backup,vztmpl,images,rootdir,iso,snippets
is_mountpoint 1
maxfiles 0
nodes srv-prox3,srv-prox2,srv-prox1
shared 0

dir: storage2
path /mnt/pve/storage2
content backup,vztmpl,images,iso,snippets,rootdir
is_mountpoint 1
maxfiles 0
nodes srv-prox2,srv-prox1,srv-prox3
shared 1

dir: storage3
path /mnt/pve/storage3
content iso,snippets,rootdir,images,vztmpl,backup
is_mountpoint 1
maxfiles 0
nodes srv-prox2,srv-prox1,srv-prox3
shared 1

cifs: isopool
path /mnt/pve/isopool
server 192.168.xxx.xxx
share shared
content iso
domain xxxx
username proxmox
 
die fehlermeldung ist recht eindeutig:
TASK ERROR: unable to activate storage 'storage2' - directory is expected to be a mount point but is not mounted: '/mnt/pve/storage2'

was sollte denn unter /mnt/pve/storage2 gemounted sein? (/etc/fstab? )
 
was sollte denn unter /mnt/pve/storage2 gemounted sein? (/etc/fstab? )

Ich bin was mount Geschichten angeht noch nicht so weit in der Linux Welt.

der Storage2 ist ein normales Verzeichnis eines anderen Nodes.

Ich hatte gehofft den Speicher der ganzen Nodes untereinander zu Verbinden um leichter auf deren Inhalte von überall drauf zugreifen zu können.
 
der Storage2 ist ein normales Verzeichnis eines anderen Nodes.

Ich hatte gehofft den Speicher der ganzen Nodes untereinander zu Verbinden um leichter auf deren Inhalte von überall drauf zugreifen zu können.
so funktioniert das leider nicht

der lokale storage (e.g. normale verzeichnisse) werden nicht automatisch geteilt mit anderen nodes (das shared flag sagt pve nur dass der admin sich bereits darum gekümmert hat)
das müsste man zb mit nfs machen, funktioniert aber halt nur in eine richtung (1 node shared, die anderen greifen darauf zu)

die meisten verwenden entweder lokalen storage auch lokal, dh nicht geshared (hier müssen bei einer migration die daten migriert werden),
ein NAS als vm storage wo alle nodes zugreifen können, oder 'hyper-converged' storage wie zb ceph oder gluster
 
Okay, so langsam kriege ich ein besseres Verständnis dafür und konnte mein Ursprungsproblem auch lösen. Es war einfach nur ein Denkfehler von mir.. Man sollte auf dem Cluster nicht nur die Verteilung der Storages deaktivieren, sondern auch die zugewiesenen Knoten entfernen..

Ich werde mich aber in Zukunft mehr mit NFS-Storages befassen und mal schauen meine VMs dort drüber zu verteile.
Gibt es eigentlich so sporadisch einen Daumenwert wie viele VMs so über eine 1Gbit/s Leitung noch normal funktionieren?
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!