Probleme nach update

lowix

New Member
Feb 25, 2017
6
0
1
58
Das System ist für mich ein Test und Lernsystem, also nicht wichtig!
Nach dem Update (heute 25.10.17, Update davor war am 18.10.17)
apt update; apt upgrade

Neustart:

##Fehlermeldung##
Code:
Command: /sbin/zpool import -c /etc/zfs/zpool.cache -N  'rpool'
Message: cannot import 'rpool': no such pool or dataset
     Destroy and re-create the pool from
   a backup source
Error: 1

Failed to import pool 'rpool'
Manually import the pool and exit.


BusyBox v1.22.1 (Debian 1:1 ...




Neustart mit älterem Kernel 4.10.17-24


Code:
A start job is running for dev-zvol-rpool-swap.device
(das mach das System seit dem Update 25.10.17 beim Neustart jetzt jedesmal)


LXC-Container funktionieren, KVMs aber können nicht mehr gestartet werden


##Systemübersicht:##
Intel Xeon E5-2620 v4

proxmox-ve: 5.1-25 (running kernel: 4.10.17-4-pve)
pve-manager: 5.1-36 (running version: 5.1-36/131401db)
pve-kernel-4.4.40-1-pve: 4.4.40-82
pve-kernel-4.13.4-1-pve: 4.13.4-25
pve-kernel-4.10.17-4-pve: 4.10.17-24
pve-kernel-4.10.17-2-pve: 4.10.17-20
pve-kernel-4.10.15-1-pve: 4.10.15-15
pve-kernel-4.4.35-1-pve: 4.4.35-77
pve-kernel-4.4.44-1-pve: 4.4.44-84
pve-kernel-4.4.67-1-pve: 4.4.67-92
pve-kernel-4.10.17-3-pve: 4.10.17-23
pve-kernel-4.10.17-1-pve: 4.10.17-18
libpve-http-server-perl: 2.0-6
lvm2: 2.02.168-pve6
corosync: 2.4.2-pve3
libqb0: 1.0.1-1
pve-cluster: 5.0-15
qemu-server: 5.0-17
pve-firmware: 2.0-3
libpve-common-perl: 5.0-20
libpve-guest-common-perl: 2.0-13
libpve-access-control: 5.0-7
libpve-storage-perl: 5.0-16
pve-libspice-server1: 0.12.8-3
vncterm: 1.5-2
pve-docs: 5.1-12
pve-qemu-kvm: 2.9.1-2
pve-container: 2.0-17
pve-firewall: 3.0-3
pve-ha-manager: 2.0-3
ksm-control-daemon: 1.2-2
glusterfs-client: 3.8.8-1
lxc-pve: 2.1.0-2
lxcfs: 2.0.7-pve4
criu: 2.11.1-1~bpo90
novnc-pve: 0.6-4
smartmontools: 6.5+svn4324-1
zfsutils-linux: 0.7.2-pve1~bpo90


/dev/sda model: ADATA_SP580 size: 120.0GB
/dev/sdb model: ADATA_SP580 size: 120.0GB
/dev/sdc model: ST3000VN007 size: 3000.6GB
/dev/sdd model: ST3000VN007 size: 3000.6GB

major minor #blocks name

8 0 117220824 sda
8 1 5242880 sda1
8 2 33554432 sda2
8 16 117220824 sdb
8 17 5242880 sdb1
8 18 33554432 sdb2
8 32 2930266584 sdc
8 33 1007 sdc1
8 34 2930257351 sdc2
8 41 8192 sdc9
8 48 2930266584 sdd
8 49 1007 sdd1
8 50 2930257351 sdd2
8 57 8192 sdd9
11 0 1048575 sr0
230 0 52428800 zd0
230 1 37914624 zd0p1
230 2 1 zd0p2
230 5 4025344 zd0p5
230 16 8388608 zd16




am 25.10.17
Code:
   NAME                                    STATE     READ WRITE CKSUM
   rpool                                   ONLINE       0     0     0
     mirror-0                              ONLINE       0     0     0
       sdc2                                ONLINE       0     0     0
       sdd2                                ONLINE       0     0     0
   logs
     mirror-1                              ONLINE       0     0     0
       ata-ADATA_SP580_2H2320051398-part1  ONLINE       0     0     0
       ata-ADATA_SP580_2H2320053703-part1  ONLINE       0     0     0
   cache
     sda2                                  ONLINE       0     0     0
     sdb2                                  ONLINE       0     0     0




Unterschied zu vorher

am 18.10.17
Code:
   NAME                                    STATE     READ WRITE CKSUM
   rpool                                   ONLINE       0     0     0
     mirror-0                              ONLINE       0     0     0
       sdc2                                ONLINE       0     0     0
       sdd2                                ONLINE       0     0     0
   logs
     mirror-1                              ONLINE       0     0     0
       ata-ADATA_SP580_2H2320051398-part1  ONLINE       0     0     0
       ata-ADATA_SP580_2H2320053703-part1  ONLINE       0     0     0
   cache
     ata-ADATA_SP580_2H2320051398-part2    ONLINE       0     0     0
     ata-ADATA_SP580_2H2320053703-part2    ONLINE       0     0     0



Die cache Partitionen sind jetzt anders benannt
und die swap Partitions wird nicht mehr eingebunden

Auszug
/etc/fstab
Code:
/dev/zvol/rpool/swap none swap sw 0 0


Das Problem kann vielleicht auch an den günstigen SSD-Platten liegen welche ich für "logs" und "cache" verwende.
 
Hi lowix,

Bevor wir das Problem intensiver untersuchen, wollte ich darauf hinweisen, daß seitens des Proxmox-Teams empfohlen! (genau, mit Ausrufezeichen) wird Systeme mittels apt-get update && apt-get dist-upgrade zu aktualisieren.

Du kannst das System ja scheinbar mit dem vorherigen Kernel starten. Probier mal zu DIST-upgraden.
 
Moin,
das war oben von mir ungenau beschrieben.
Diese drei Schritte habe ich für das Updaten immer gemacht:

apt update
apt upgrade
apt dist-upgrade

Habe kein /dev/zvol .

Code:
pvesm path local-zfs:vm-101-disk-1
/dev/zvol/rpool/data/vm-101-disk-1

ls -l /etc/dev/z*


brw-rw---- 1 root disk 230,  0 Oct 26 09:17 /dev/zd0
brw-rw---- 1 root disk 230,  1 Oct 26 09:17 /dev/zd0p1
brw-rw---- 1 root disk 230,  2 Oct 26 09:17 /dev/zd0p2
brw-rw---- 1 root disk 230,  5 Oct 26 09:17 /dev/zd0p5
brw-rw---- 1 root disk 230, 16 Oct 26 09:17 /dev/zd16
crw-rw-rw- 1 root root   1,  5 Oct 26 09:17 /dev/zero
crw-rw-rw- 1 root root  10, 55 Oct 26 09:17 /dev/zfs
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!