Das System ist für mich ein Test und Lernsystem, also nicht wichtig!
Nach dem Update (heute 25.10.17, Update davor war am 18.10.17)
apt update; apt upgrade
Neustart:
##Fehlermeldung##
Neustart mit älterem Kernel 4.10.17-24
(das mach das System seit dem Update 25.10.17 beim Neustart jetzt jedesmal)
LXC-Container funktionieren, KVMs aber können nicht mehr gestartet werden
##Systemübersicht:##
Intel Xeon E5-2620 v4
proxmox-ve: 5.1-25 (running kernel: 4.10.17-4-pve)
pve-manager: 5.1-36 (running version: 5.1-36/131401db)
pve-kernel-4.4.40-1-pve: 4.4.40-82
pve-kernel-4.13.4-1-pve: 4.13.4-25
pve-kernel-4.10.17-4-pve: 4.10.17-24
pve-kernel-4.10.17-2-pve: 4.10.17-20
pve-kernel-4.10.15-1-pve: 4.10.15-15
pve-kernel-4.4.35-1-pve: 4.4.35-77
pve-kernel-4.4.44-1-pve: 4.4.44-84
pve-kernel-4.4.67-1-pve: 4.4.67-92
pve-kernel-4.10.17-3-pve: 4.10.17-23
pve-kernel-4.10.17-1-pve: 4.10.17-18
libpve-http-server-perl: 2.0-6
lvm2: 2.02.168-pve6
corosync: 2.4.2-pve3
libqb0: 1.0.1-1
pve-cluster: 5.0-15
qemu-server: 5.0-17
pve-firmware: 2.0-3
libpve-common-perl: 5.0-20
libpve-guest-common-perl: 2.0-13
libpve-access-control: 5.0-7
libpve-storage-perl: 5.0-16
pve-libspice-server1: 0.12.8-3
vncterm: 1.5-2
pve-docs: 5.1-12
pve-qemu-kvm: 2.9.1-2
pve-container: 2.0-17
pve-firewall: 3.0-3
pve-ha-manager: 2.0-3
ksm-control-daemon: 1.2-2
glusterfs-client: 3.8.8-1
lxc-pve: 2.1.0-2
lxcfs: 2.0.7-pve4
criu: 2.11.1-1~bpo90
novnc-pve: 0.6-4
smartmontools: 6.5+svn4324-1
zfsutils-linux: 0.7.2-pve1~bpo90
/dev/sda model: ADATA_SP580 size: 120.0GB
/dev/sdb model: ADATA_SP580 size: 120.0GB
/dev/sdc model: ST3000VN007 size: 3000.6GB
/dev/sdd model: ST3000VN007 size: 3000.6GB
major minor #blocks name
8 0 117220824 sda
8 1 5242880 sda1
8 2 33554432 sda2
8 16 117220824 sdb
8 17 5242880 sdb1
8 18 33554432 sdb2
8 32 2930266584 sdc
8 33 1007 sdc1
8 34 2930257351 sdc2
8 41 8192 sdc9
8 48 2930266584 sdd
8 49 1007 sdd1
8 50 2930257351 sdd2
8 57 8192 sdd9
11 0 1048575 sr0
230 0 52428800 zd0
230 1 37914624 zd0p1
230 2 1 zd0p2
230 5 4025344 zd0p5
230 16 8388608 zd16
am 25.10.17
Unterschied zu vorher
am 18.10.17
Die cache Partitionen sind jetzt anders benannt
und die swap Partitions wird nicht mehr eingebunden
Auszug
/etc/fstab
Das Problem kann vielleicht auch an den günstigen SSD-Platten liegen welche ich für "logs" und "cache" verwende.
Nach dem Update (heute 25.10.17, Update davor war am 18.10.17)
apt update; apt upgrade
Neustart:
##Fehlermeldung##
Code:
Command: /sbin/zpool import -c /etc/zfs/zpool.cache -N 'rpool'
Message: cannot import 'rpool': no such pool or dataset
Destroy and re-create the pool from
a backup source
Error: 1
Failed to import pool 'rpool'
Manually import the pool and exit.
BusyBox v1.22.1 (Debian 1:1 ...
Neustart mit älterem Kernel 4.10.17-24
Code:
A start job is running for dev-zvol-rpool-swap.device
LXC-Container funktionieren, KVMs aber können nicht mehr gestartet werden
##Systemübersicht:##
Intel Xeon E5-2620 v4
proxmox-ve: 5.1-25 (running kernel: 4.10.17-4-pve)
pve-manager: 5.1-36 (running version: 5.1-36/131401db)
pve-kernel-4.4.40-1-pve: 4.4.40-82
pve-kernel-4.13.4-1-pve: 4.13.4-25
pve-kernel-4.10.17-4-pve: 4.10.17-24
pve-kernel-4.10.17-2-pve: 4.10.17-20
pve-kernel-4.10.15-1-pve: 4.10.15-15
pve-kernel-4.4.35-1-pve: 4.4.35-77
pve-kernel-4.4.44-1-pve: 4.4.44-84
pve-kernel-4.4.67-1-pve: 4.4.67-92
pve-kernel-4.10.17-3-pve: 4.10.17-23
pve-kernel-4.10.17-1-pve: 4.10.17-18
libpve-http-server-perl: 2.0-6
lvm2: 2.02.168-pve6
corosync: 2.4.2-pve3
libqb0: 1.0.1-1
pve-cluster: 5.0-15
qemu-server: 5.0-17
pve-firmware: 2.0-3
libpve-common-perl: 5.0-20
libpve-guest-common-perl: 2.0-13
libpve-access-control: 5.0-7
libpve-storage-perl: 5.0-16
pve-libspice-server1: 0.12.8-3
vncterm: 1.5-2
pve-docs: 5.1-12
pve-qemu-kvm: 2.9.1-2
pve-container: 2.0-17
pve-firewall: 3.0-3
pve-ha-manager: 2.0-3
ksm-control-daemon: 1.2-2
glusterfs-client: 3.8.8-1
lxc-pve: 2.1.0-2
lxcfs: 2.0.7-pve4
criu: 2.11.1-1~bpo90
novnc-pve: 0.6-4
smartmontools: 6.5+svn4324-1
zfsutils-linux: 0.7.2-pve1~bpo90
/dev/sda model: ADATA_SP580 size: 120.0GB
/dev/sdb model: ADATA_SP580 size: 120.0GB
/dev/sdc model: ST3000VN007 size: 3000.6GB
/dev/sdd model: ST3000VN007 size: 3000.6GB
major minor #blocks name
8 0 117220824 sda
8 1 5242880 sda1
8 2 33554432 sda2
8 16 117220824 sdb
8 17 5242880 sdb1
8 18 33554432 sdb2
8 32 2930266584 sdc
8 33 1007 sdc1
8 34 2930257351 sdc2
8 41 8192 sdc9
8 48 2930266584 sdd
8 49 1007 sdd1
8 50 2930257351 sdd2
8 57 8192 sdd9
11 0 1048575 sr0
230 0 52428800 zd0
230 1 37914624 zd0p1
230 2 1 zd0p2
230 5 4025344 zd0p5
230 16 8388608 zd16
am 25.10.17
Code:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sdc2 ONLINE 0 0 0
sdd2 ONLINE 0 0 0
logs
mirror-1 ONLINE 0 0 0
ata-ADATA_SP580_2H2320051398-part1 ONLINE 0 0 0
ata-ADATA_SP580_2H2320053703-part1 ONLINE 0 0 0
cache
sda2 ONLINE 0 0 0
sdb2 ONLINE 0 0 0
Unterschied zu vorher
am 18.10.17
Code:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sdc2 ONLINE 0 0 0
sdd2 ONLINE 0 0 0
logs
mirror-1 ONLINE 0 0 0
ata-ADATA_SP580_2H2320051398-part1 ONLINE 0 0 0
ata-ADATA_SP580_2H2320053703-part1 ONLINE 0 0 0
cache
ata-ADATA_SP580_2H2320051398-part2 ONLINE 0 0 0
ata-ADATA_SP580_2H2320053703-part2 ONLINE 0 0 0
Die cache Partitionen sind jetzt anders benannt
und die swap Partitions wird nicht mehr eingebunden
Auszug
/etc/fstab
Code:
/dev/zvol/rpool/swap none swap sw 0 0
Das Problem kann vielleicht auch an den günstigen SSD-Platten liegen welche ich für "logs" und "cache" verwende.