Hallo,
ich nutze Proxmox in der aktuellsten Version (public) auf einem Intel Modular Server mit 4 Servern. Die haben alle eine 10GB Platte für sich ("pve") und einen gemeinsamen Storage ("vmdisks") für den HA-Betrieb. Beides ist redundant über 2 Controller angebunden und mit multipath eingerichtet.
Nachdem ich jetzt das Update auf PVE-Kernel 4.4.35 gemacht habe und neustartete, landete ich im initramfs mit dem folgenden Hinweis:
Wenn ich den alten 4.4.6 Kernel lade, komme ich zumindest wieder in den Emergency-Modus mit der normalen bash, aber auch nicht weiter. Dort erhalte ich folgende Fehlermeldung:
Was kann ich noch machen?
Vielen Dank schon mal für eure Ratschläge!!
Anbei noch meine Multipath-Config, die so bisher auch funktionierte:
ich nutze Proxmox in der aktuellsten Version (public) auf einem Intel Modular Server mit 4 Servern. Die haben alle eine 10GB Platte für sich ("pve") und einen gemeinsamen Storage ("vmdisks") für den HA-Betrieb. Beides ist redundant über 2 Controller angebunden und mit multipath eingerichtet.
Nachdem ich jetzt das Update auf PVE-Kernel 4.4.35 gemacht habe und neustartete, landete ich im initramfs mit dem folgenden Hinweis:
Ich habe diverse Tipps gefunden die Boot-Geschwindigkeit zu reduzieren in Grub um den LVM-Volumes mehr Zeit zu geben oder sie mit vgchange -ay manuell nachzuladen. Leider bekomme ich mit "vgchange -ay pve" nur gesagt, dass es die VolumeGroup pve nicht gäbe!modprobe: module dm-emc not found in modules.dep
Volume group "pve" not found
Cannot process volume group pve
Unable to find LVM volume pve/root
Gave up waiting for root device
[...]
ALERT! /dev/mapper/pve-root does not exist. Dropping to a shell!
modprobe: module ehci-orion not found in modules.dep
Wenn ich den alten 4.4.6 Kernel lade, komme ich zumindest wieder in den Emergency-Modus mit der normalen bash, aber auch nicht weiter. Dort erhalte ich folgende Fehlermeldung:
CIFS VFS: Error connecting to socket. Aborting operation.
CIFS VFS: cifs_mount failed w/return code = -113
Was kann ich noch machen?
Vielen Dank schon mal für eure Ratschläge!!
Anbei noch meine Multipath-Config, die so bisher auch funktionierte:
Code:
blacklist {
devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
devnode "^(hd|xvd)[a-z][[0-9]*]"
devnode "^cciss!c[0-9]d[0-9]*[p[0-9]*]"
}
blacklist_exceptions {
property "(SCSI_IDENT_.*|ID_WWN|ID_SERIAL)"
}
devices {
device {
vendor "Intel"
product "Multi-Flex"
path_grouping_policy "group_by_prio"
uid_attribute "ID_SERIAL"
prio "alua"
path_checker tur
path_selector "round-robin 0"
hardware_handler "1 alua"
failback immediate
rr_weight uniform
rr_min_io 100
no_path_retry queue
features "1 queue_if_no_path"
product_blacklist "VTrak V-LUN"
}
}
multipaths {
multipath {
wwid 2221800015566bcd7
alias pve
}
multipath {
wwid 222d1000155fcc1a0
alias vmdisks
}
}
Last edited: