LXC verliert nach Stromausfall Mount Point

sprickw

Member
Nov 1, 2020
24
1
8
Waldems, Germany
www.datagon.de
Nach Stromausfall Neustart Proxmox Server ist OK, aber eine einzelner LXC startet nicht.

Startversuch von Shell des Servers

root@ems:~# pct start 106
storage 'sdb' does not exist
root@ems:~#

fdisk -l

Disk /dev/sdb: 3.64 TiB, 4000787030016 bytes, 7814037168 sectors
Disk model: WDC WD40EZRZ-00G
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 6CD57AAE-2A19-474F-9EDB-27921BE3513D

Device Start End Sectors Size Type
/dev/sdb1 2048 7814037134 7814035087 3.6T Linux filesystem

Sieht für mich gut aus.

root@ems:~# ls -l /mnt/pve/sdb/images/
total 4
drwxr----- 2 root root 4096 Oct 3 23:37 106
root@ems:~#

root@ems:~# ls -l /mnt/pve/sdb/images/106
total 578312436
-rw-r----- 1 root root 2199023255552 Nov 2 09:49 vm-106-disk-0.raw
root@ems:~#

Sieht für mich auch noch gut aus.

Nach "pct rescan" sieht das config file des LXC wie folgt aus

root@ems:/etc/pve/lxc# cat /etc/pve/lxc/106.conf
#Nextcloud-Server
arch: amd64
cores: 4
features: nesting=1
hostname: mekong
memory: 2048
mp0: sdb:106/vm-106-disk-0.raw,mp=/nextcloud_data,backup=1,size=0T
net0: name=eth0,bridge=vmbr0,firewall=1,gw=192.168.178.1,hwaddr=9E:CA:8C:85:26:33,ip=192.168.178.70/24,type=veth
onboot: 1
ostype: ubuntu
rootfs: local-lvm:vm-106-disk-0,size=20G
swap: 2048
unprivileged: 1
root@ems:/etc/pve/lxc#

Was mich irritiert ist, dass die Größe von mp0 von 2T zu 0T wechselt.

root@ems:/etc/pve/lxc# df -h
Filesystem Size Used Avail Use% Mounted on
...
/dev/sdb1 3.6T 552G 2.9T 16% /mnt/pve/sdb
...
root@ems:/etc/pve/lxc#

Wie sollte ich weiter vorgehen? Stehe da leider komplett im Wald.

Gruß Wolfgang
 
Hi,
was ist die Ausgabe von pveversion -v und cat /etc/pve/storage.cfg?
 
root@ems:~# pveversion -v
proxmox-ve: 8.0.1 (running kernel: 6.2.16-3-pve)
pve-manager: 8.0.3 (running version: 8.0.3/bbf3993334bfa916)
pve-kernel-6.2: 8.0.2
pve-kernel-6.2.16-3-pve: 6.2.16-3
ceph-fuse: 17.2.6-pve1+3
corosync: 3.1.7-pve3
criu: 3.17.1-2
glusterfs-client: 10.3-5
ifupdown2: 3.2.0-1+pmx2
ksm-control-daemon: 1.4-1
libjs-extjs: 7.0.0-3
libknet1: 1.25-pve1
libproxmox-acme-perl: 1.4.6
libproxmox-backup-qemu0: 1.4.0
libproxmox-rs-perl: 0.3.0
libpve-access-control: 8.0.3
libpve-apiclient-perl: 3.3.1
libpve-common-perl: 8.0.5
libpve-guest-common-perl: 5.0.3
libpve-http-server-perl: 5.0.3
libpve-rs-perl: 0.8.3
libpve-storage-perl: 8.0.1
libspice-server1: 0.15.1-1

root@ems:~# cat /etc/pve/storage.cfg
dir: local
path /var/lib/vz
content vztmpl,backup,iso

lvmthin: local-lvm
thinpool data
vgname pve
content rootdir,images

cifs: proxback2
path /mnt/pve/proxback2
server 192.168.178.15
share proxback2
content backup
prune-backups keep-all=1
username sprickw

zfspool: zfs-hdd
pool zfs-hdd
content images,rootdir
mountpoint /zfs-hdd
nodes warnow,spree,ems
sparse 0

zfspool: zfs-ssd
pool zfs-ssd
content images,rootdir
mountpoint /zfs-ssd
nodes warnow,spree,ems
sparse 0

zfspool: zfs-hdd2
pool zfs-hdd2
content images,rootdir
mountpoint /zfs-hdd2
nodes spree

root@ems:~#
lvm2: 2.03.16-2
lxc-pve: 5.0.2-4
lxcfs: 5.0.3-pve3
novnc-pve: 1.4.0-2
proxmox-backup-client: 2.99.0-1
proxmox-backup-file-restore: 2.99.0-1
proxmox-kernel-helper: 8.0.2
proxmox-mail-forward: 0.1.1-1
proxmox-mini-journalreader: 1.4.0
proxmox-widget-toolkit: 4.0.5
pve-cluster: 8.0.1
pve-container: 5.0.3
pve-docs: 8.0.3
pve-edk2-firmware: 3.20230228-4
pve-firewall: 5.0.2
pve-firmware: 3.7-1
pve-ha-manager: 4.0.2
pve-i18n: 3.0.4
pve-qemu-kvm: 8.0.2-3
pve-xtermjs: 4.16.0-3
qemu-server: 8.0.6
smartmontools: 7.3-pve1
spiceterm: 3.3.0
swtpm: 0.8.0+pve1
vncterm: 1.8.0
zfsutils-linux: 2.1.12-pve1
root@ems:~#
 
root@ems:~# cat /etc/pve/storage.cfg
dir: local
path /var/lib/vz
content vztmpl,backup,iso

lvmthin: local-lvm
thinpool data
vgname pve
content rootdir,images

cifs: proxback2
path /mnt/pve/proxback2
server 192.168.178.15
share proxback2
content backup
prune-backups keep-all=1
username sprickw

zfspool: zfs-hdd
pool zfs-hdd
content images,rootdir
mountpoint /zfs-hdd
nodes warnow,spree,ems
sparse 0

zfspool: zfs-ssd
pool zfs-ssd
content images,rootdir
mountpoint /zfs-ssd
nodes warnow,spree,ems
sparse 0

zfspool: zfs-hdd2
pool zfs-hdd2
content images,rootdir
mountpoint /zfs-hdd2
nodes spree
Hier gibt es keine Storage mit ID sdb. Möglicherweise reicht es, diese wieder hinzuzufügen. In der UI, geht das unter Datacenter > Storage > Add. Scheint eine Directory-Storage mit Pfad /mnt/pve/sdb zu sein. Und da es ein Mountpoint zu sein scheint (kann mit findmnt überprüft werden), am besten noch pvesm set sdb --is_mountpoint 1 setzen.
 
Last edited: