[SOLVED] Probleme beim Reboot einer Node

MarcelW

Member
Feb 10, 2019
69
3
8
29
Hallo zusammen,
ich habe aktuell einen Cluster aus drei baugleichen Nodes.
Bei zwei Nodes habe ich das Problem, dass wenn ich diese rebooten möchte ich ewig folgendes auf der Konsole ablesen kann:
Code:
A stop job is running for PVE Local HA Resource Manager Daemon
Aktuell läuft das ganze schon ca. 7 Minuten.

Ich habe keine meiner VMs als HA eingetragen, HA wird bei mir derzeit nicht verwendet.
Was kann die Ursache für dieses Problem sein?

Viele Grüße
 

wolfgang

Proxmox Staff Member
Staff member
Oct 1, 2014
5,619
377
103
Hallo,

hast du es mal zum testen eingeschalten.
Also waren die pve-ha-lrm aktiviert oder im idle?
Welche Proxmox VE Version verwendest du?

Code:
pveversion -v
 

MarcelW

Member
Feb 10, 2019
69
3
8
29
Hi,

ja es war mal zum testen eingeschaltet, das ist aber schon ein bisschen her.
pveversion:
Code:
proxmox-ve: 6.1-2 (running kernel: 5.3.13-1-pve)
pve-manager: 6.1-5 (running version: 6.1-5/9bf06119)
pve-kernel-5.3: 6.1-1
pve-kernel-helper: 6.1-1
pve-kernel-5.3.13-1-pve: 5.3.13-1
pve-kernel-5.3.10-1-pve: 5.3.10-1
ceph: 14.2.6-pve1
ceph-fuse: 14.2.6-pve1
corosync: 3.0.2-pve4
criu: 3.11-3
glusterfs-client: 5.5-3
ifupdown: residual config
ifupdown2: 2.0.1-1+pve2
ksm-control-daemon: 1.3-1
libjs-extjs: 6.0.1-10
libknet1: 1.13-pve1
libpve-access-control: 6.0-5
libpve-apiclient-perl: 3.0-2
libpve-common-perl: 6.0-10
libpve-guest-common-perl: 3.0-3
libpve-http-server-perl: 3.0-3
libpve-storage-perl: 6.1-3
libqb0: 1.0.5-1
libspice-server1: 0.14.2-4~pve6+1
lvm2: 2.03.02-pve3
lxc-pve: 3.2.1-1
lxcfs: 3.0.3-pve60
novnc-pve: 1.1.0-1
proxmox-mini-journalreader: 1.1-1
proxmox-widget-toolkit: 2.1-2
pve-cluster: 6.1-3
pve-container: 3.0-16
pve-docs: 6.1-3
pve-edk2-firmware: 2.20191127-1
pve-firewall: 4.0-9
pve-firmware: 3.0-4
pve-ha-manager: 3.0-8
pve-i18n: 2.0-3
pve-qemu-kvm: 4.1.1-2
pve-xtermjs: 3.13.2-1
qemu-server: 6.1-4
smartmontools: 7.1-pve1
spiceterm: 3.1-1
vncterm: 1.6-1
zfsutils-linux: 0.8.2-pve2
 

wolfgang

Proxmox Staff Member
Staff member
Oct 1, 2014
5,619
377
103
Verwendest du CephFS?
 

wolfgang

Proxmox Staff Member
Staff member
Oct 1, 2014
5,619
377
103
Es gibt anscheinend eine Bug im Ceph MDS daemon.
Wir arbeiten dran.
Werde hier schreiben wenn es Neuigkeiten dazu gibt.
 
  • Like
Reactions: MarcelW

realynot

New Member
Sep 19, 2019
5
0
1
35
Hallo
J habe den gleichen fehler mit zwei neoud die gerade mit der letzten iso installiert wurden ..
Ich benutze kein CephSF, aber ZFS ...
 

tom

Proxmox Staff Member
Staff member
Aug 29, 2006
14,094
502
133
Hallo
J habe den gleichen fehler mit zwei neoud die gerade mit der letzten iso installiert wurden ..
Ich benutze kein CephSF, aber ZFS ...
Eher nicht genau dasselbe. Bitte neuen Thread mit allen Details öffnen.
 
  • Like
Reactions: realynot

Fabian_E

Proxmox Staff Member
Staff member
Aug 1, 2019
256
22
18
Hallo,
das Problem sollte mit ifupdown2 (2.0.1-1+pve3) behoben sein. @MarcelW, könntest Du das Upgrade installieren und testen?
 
  • Like
Reactions: MarcelW

yangsm

New Member
Oct 27, 2019
3
0
1
44
Es gibt anscheinend eine Bug im Ceph MDS daemon ,What is a bug problem? Is it the latest version of ceph 14.2.6 software?
 

Fabian_E

Proxmox Staff Member
Staff member
Aug 1, 2019
256
22
18
Es gibt anscheinend eine Bug im Ceph MDS daemon ,What is a bug problem? Is it the latest version of ceph 14.2.6 software?
The problem was because of dependency ordering for some of the systemd services. If you upgrade to the newest versions, you should be fine. Also see this post and its thread.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE and Proxmox Mail Gateway. We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!