Newbie-Frage: Nach VM shutdown ist Proxmox nicht mehr erreichbar

Painless

New Member
Dec 15, 2024
7
2
3
Hallo Zusammen,

ich verstehe nicht, warum das Proxmox Datacenter bei einem shutdown meiner VM auch nicht mehr erreichbar ist: Es hilft immer nur ein Hardwarereset um das System wieder zu starten.

Ich hab dem Datacenter die IP 192.168.1.4 gegeben und der VM (Home Assistant) die Adresse 192.168.1.5. Alles statische Adressen und beide GUI sind über die jeweiligen Ports erreichbar.

Ich fürchte, dass ich bei der Installation einen grundlegenden Fehler gemacht hab, finde aber keine Lösung und brauch mal Eure Hilfe.

Vielen Dank im Voraus !
 
Ich hab dem Datacenter die IP 192.168.1.4 gegeben
Ein Datacenter hat keine eigene IP-Adresse. Du meinst sicher den PVE-Host, deinen einzigen Node.

Um einen Überblick über deinen Konfiguration zu bekommen wäre zunächst folgendes interessant:

PVE System information:
  • pveversion -v
Basic network information:
  • ip address show # currently active IP addresses on one NODE
  • ip route show # currently active routing table on one NODE
  • cat /etc/network/interfaces # the network configuration from one NODE
Problematic VM:
  • export VMID=<the_ID_of_the_VM>; qm config ${VMID}

Die jeweilige Ausgabe bitte in [CODE]...[/CODE] verpacken.
 
Hallo,

erstmal vielen Dank für Deine schnelle Reaktion ! Super, dass Du mir hilfst.

Hier die verschiedenen Ausgaben:

Code:
pveversion -v
proxmox-ve: 8.2.0 (running kernel: 6.8.12-2-pve)
pve-manager: 8.2.7 (running version: 8.2.7/3e0176e6bb2ade3b)
proxmox-kernel-helper: 8.1.0
proxmox-kernel-6.8: 6.8.12-2
proxmox-kernel-6.8.12-2-pve-signed: 6.8.12-2
proxmox-kernel-6.8.4-2-pve-signed: 6.8.4-2
ceph-fuse: 17.2.7-pve3
corosync: 3.1.7-pve3
criu: 3.17.1-2
glusterfs-client: 10.3-5
ifupdown2: 3.2.0-1+pmx9
ksm-control-daemon: 1.5-1
libjs-extjs: 7.0.0-4
libknet1: 1.28-pve1
libproxmox-acme-perl: 1.5.1
libproxmox-backup-qemu0: 1.4.1
libproxmox-rs-perl: 0.3.4
libpve-access-control: 8.1.4
libpve-apiclient-perl: 3.3.2
libpve-cluster-api-perl: 8.0.8
libpve-cluster-perl: 8.0.8
libpve-common-perl: 8.2.5
libpve-guest-common-perl: 5.1.4
libpve-http-server-perl: 5.1.2
libpve-network-perl: 0.9.8
libpve-rs-perl: 0.8.10
libpve-storage-perl: 8.2.5
libspice-server1: 0.15.1-1
lvm2: 2.03.16-2
lxc-pve: 6.0.0-1
lxcfs: 6.0.0-pve2
novnc-pve: 1.4.0-4
proxmox-backup-client: 3.2.7-1
proxmox-backup-file-restore: 3.2.7-1
proxmox-firewall: 0.5.0
proxmox-kernel-helper: 8.1.0
proxmox-mail-forward: 0.2.3
proxmox-mini-journalreader: 1.4.0
proxmox-offline-mirror-helper: 0.6.7
proxmox-widget-toolkit: 4.2.4
pve-cluster: 8.0.8
pve-container: 5.2.0
pve-docs: 8.2.3
pve-edk2-firmware: 4.2023.08-4
pve-esxi-import-tools: 0.7.2
pve-firewall: 5.0.7
pve-firmware: 3.13-2
pve-ha-manager: 4.0.5
pve-i18n: 3.2.4
pve-qemu-kvm: 9.0.2-3
pve-xtermjs: 5.3.0-3
qemu-server: 8.2.4
smartmontools: 7.3-pve1
spiceterm: 3.3.0
swtpm: 0.8.0+pve1
vncterm: 1.8.0
zfsutils-linux: 2.2.6-pve1


ip address show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host noprefixroute
       valid_lft forever preferred_lft forever
2: eno1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master vmbr0 state UP group default qlen 1000
    link/ether ec:8e:b5:70:49:50 brd ff:ff:ff:ff:ff:ff
    altname enp0s31f6
3: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether ec:8e:b5:70:49:50 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.4/24 scope global vmbr0
       valid_lft forever preferred_lft forever
    inet6 fe80::ee8e:b5ff:fe70:4950/64 scope link
       valid_lft forever preferred_lft forever
4: tap100i0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master vmbr0 state UNKNOWN group default qlen 1000
    link/ether e6:7d:4f:7e:86:ed brd ff:ff:ff:ff:ff:ff


ip route show
default via 192.168.1.1 dev vmbr0 proto kernel onlink
192.168.1.0/24 dev vmbr0 proto kernel scope link src 192.168.1.4

cat /etc/network/interfaces
# network interface settings; autogenerated
# Please do NOT modify this file directly, unless you know what
# you're doing.
#
# If you want to manage parts of the network configuration manually,
# please utilize the 'source' or 'source-directory' directives to do
# so.
# PVE will preserve these directives, but will NOT read its network
# configuration from sourced files, so do not attempt to move any of
# the PVE managed interfaces into external files!

auto lo
iface lo inet loopback
iface eno1 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.1.4/24
        gateway 192.168.1.1
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0

source /etc/network/interfaces.d/*

export VMID=100; qm config ${VMID}
agent: 1
bios: ovmf
boot: order=scsi0
cores: 2
cpu: host
description: <div align='center'><a href='https%3A//Helper-Scripts.com' target='_blank' rel='noopener noreferrer'><img src='https%3A//raw.githubusercontent.com/tteck/Proxmox/main/misc/images/logo-81x112.png'/></a>%0A%0A  # Home Assistant OS%0A%0A  <a href='https%3A//ko-fi.com/D1D7EP4GF'><img src='https%3A//img.shields.io/badge/&#x2615;-Buy me a coffee-blue' /></a>%0A  </div>
efidisk0: local-lvm:vm-100-disk-0,efitype=4m,size=4M
localtime: 1
memory: 4096
meta: creation-qemu=9.0.2,ctime=1729779670
name: haos13.2
net0: virtio=02:C7:1C:2F:DF:5B,bridge=vmbr0
onboot: 1
ostype: l26
scsi0: local-lvm:vm-100-disk-1,cache=writethrough,discard=on,size=32G,ssd=1
scsihw: virtio-scsi-pci
smbios1: uuid=4367ab90-0cb2-4e87-a726-8a674dc377f3
tablet: 0
tags: proxmox-helper-scripts
vmgenid: b8ceee1a-6045-46a8-adbd-b309172fa7bf
 
Tja..., ich sehe nichts falsches.

Deine Version "proxmox-ve: 8.2.0" ist allerdings nicht auf dem aktuellen Stand. https://pve.proxmox.com/wiki/Package_Repositories#sysadmin_no_subscription_repo ist vermutlich nicht gut konfiguriert. Mach das per "klick" im Web-Gui dein Node --> Updates --> Repositories. Unter dein-Node --> Updates sollte dann "Refresh" ohne Fehler (höchstens mir Warnungen hinsichtlich "non-sub = not for production") durchlaufen, diverse Updates anzeigen und diese dann per "Upgrade" installierbar sein.

Ich mache Updates/Upgrades lieber per shell: apt update && apt -d -y full-upgrade && apt full-upgrade.

Die Netzwerkkonfiguration ist ok.

Die VM-Konfiguration sieht ebenfalls gut aus. (Allerdings verwende ich weder LVM noch solche Hilfsskripte.) "scsihw: virtio-scsi-pci" nutze ich nicht, ich verwende meist "virtio-scsi-single". Das kann man im Web-Gui unter VM --> Hardware --> SCSI Controller konfigurieren.

Aber in keinem Fall sollte das Stoppen der VM den Host beschädigen.

Der Host hat wenigstens 8 GiB? Du weist HAOS 4 GiB zu, mit weniger als 8 GiB könnte das bereits eng werden.

Starte mal auf dem Host in einer root shell journalctl -f -x und beobachte die Ausgabe. Lass dies im Blickfeld (neues Fenster) und fahre die VM herunter.
 
Hallo Zusammen,

ich verstehe nicht, warum das Proxmox Datacenter bei einem shutdown meiner VM auch nicht mehr erreichbar ist: Es hilft immer nur ein Hardwarereset um das System wieder zu starten.

Ich hab dem Datacenter die IP 192.168.1.4 gegeben und der VM (Home Assistant) die Adresse 192.168.1.5. Alles statische Adressen und beide GUI sind über die jeweiligen Ports erreichbar.

Ich fürchte, dass ich bei der Installation einen grundlegenden Fehler gemacht hab, finde aber keine Lösung und brauch mal Eure Hilfe.

Vielen Dank im Voraus !

Wo drückst Du denn auf „Shutdown“? Im UI ist das sowohl auf Ebene des Hosts, als auch auf Ebene einer VM bzw. eines LXC verfügbar.

Und - passiert das auch, wenn Du Dich per SSH mit der VM verbindest und dort „shutdown -h now“ ausführst?
 
  • Like
Reactions: ThoSo
Hallo,

danke für Eure Informationen.

@UdoB: Ich hab alle Updates gefahren und ebenfalls Deine anderen Hinweise umgesetzt. Der VM hab ich jetzt 8GB zugewiesen und den Festplattentreiber gegen die Single Version getauscht. Es hat keine Verbesserung gebracht. Das Journal steht weiter unten.

@maxim.webster: Ich markiere die VM und dann über rechte Maustaste "shutdown". Einen shutdown -h now auf der VM selbst kann ich nicht ausführen, bzw. ich weiß nicht wie. Ich benutzte die Homeassistant Version HAOS und die hat m.W. einen sehr abgespeckten Linux Kernel. Jedenfalls komme ich zwar mit putty auf die VM, aber das sieht nicht nach Linux aus und die Shell von HAOS kennt keinen shutdown Befehl.

Was mir noch auffällt: Ein Reboot der VM "reißt" auch den Host mit runter. Kommt aber mit Neustart der VM wieder zurück. So sieht der ping auf den Host beim Reboot der VM aus:

Code:
Antwort von 192.168.1.4: Bytes=32 Zeit=4ms TTL=64
Antwort von 192.168.1.4: Bytes=32 Zeit=4ms TTL=64
Antwort von 192.168.1.4: Bytes=32 Zeit=90ms TTL=64
Zeitüberschreitung der Anforderung.
Zeitüberschreitung der Anforderung.
Zeitüberschreitung der Anforderung.
Zeitüberschreitung der Anforderung.
Zeitüberschreitung der Anforderung.
Zeitüberschreitung der Anforderung.
Zeitüberschreitung der Anforderung.
Zeitüberschreitung der Anforderung.
Antwort von 192.168.1.4: Bytes=32 Zeit=7ms TTL=64
Antwort von 192.168.1.4: Bytes=32 Zeit=4ms TTL=64
Antwort von 192.168.1.4: Bytes=32 Zeit=10ms TTL=64
Antwort von 192.168.1.4: Bytes=32 Zeit=4ms TTL=64

Ich hab einfach zu wenig Ahnung von Proxmox und den Abhängigkeiten. Jede Hilfe ist willkommen !

Code:
The programs included with the Debian GNU/Linux system are free software;
the exact distribution terms for each program are described in the
individual files in /usr/share/doc/*/copyright.

Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
permitted by applicable law.
Last login: Sun Dec 15 09:06:45 2024 from 192.168.1.5
root@haos:~# journalctl -f -x
Dec 15 11:23:48 haos systemd[1401]: Listening on gpg-agent-extra.socket - GnuPG cryptographic agent and passphrase cache (restricted).
░░ Subject: A start job for unit UNIT has finished successfully
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit UNIT has finished successfully.
░░
░░ The job identifier is 6.
Dec 15 11:23:48 haos systemd[1401]: Listening on gpg-agent-ssh.socket - GnuPG cryptographic agent (ssh-agent emulation).
░░ Subject: A start job for unit UNIT has finished successfully
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit UNIT has finished successfully.
░░
░░ The job identifier is 13.
Dec 15 11:23:48 haos systemd[1401]: Listening on gpg-agent.socket - GnuPG cryptographic agent and passphrase cache.
░░ Subject: A start job for unit UNIT has finished successfully
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit UNIT has finished successfully.
░░
░░ The job identifier is 11.
Dec 15 11:23:48 haos systemd[1401]: Reached target sockets.target - Sockets.
░░ Subject: A start job for unit UNIT has finished successfully
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit UNIT has finished successfully.
░░
░░ The job identifier is 5.
Dec 15 11:23:48 haos systemd[1401]: Reached target basic.target - Basic System.
░░ Subject: A start job for unit UNIT has finished successfully
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit UNIT has finished successfully.
░░
░░ The job identifier is 4.
Dec 15 11:23:48 haos systemd[1401]: Reached target default.target - Main User Target.
░░ Subject: A start job for unit UNIT has finished successfully
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit UNIT has finished successfully.
░░
░░ The job identifier is 3.
Dec 15 11:23:48 haos systemd[1401]: Startup finished in 124ms.
░░ Subject: User manager start-up is now complete
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ The user manager instance for user 0 has been started. All services queued
░░ for starting have been started. Note that other services might still be starting
░░ up or be started at any later time.
░░
░░ Startup of the manager took 124203 microseconds.
Dec 15 11:23:48 haos systemd[1]: Started user@0.service - User Manager for UID 0.
░░ Subject: A start job for unit user@0.service has finished successfully
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit user@0.service has finished successfully.
░░
░░ The job identifier is 215.
Dec 15 11:23:48 haos systemd[1]: Started session-1.scope - Session 1 of User root.
░░ Subject: A start job for unit session-1.scope has finished successfully
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit session-1.scope has finished successfully.
░░
░░ The job identifier is 315.
Dec 15 11:23:48 haos sshd[1350]: pam_env(sshd:session): deprecated reading of user environment enabled
Dec 15 11:24:52 haos pvedaemon[936]: <root@pam> starting task UPID:haos:0000064F:000045A1:675EBC84:qmshutdown:100:root@pam:
Dec 15 11:24:52 haos pvedaemon[1615]: shutdown VM 100: UPID:haos:0000064F:000045A1:675EBC84:qmshutdown:100:root@pam:
 
Last edited:
Ich glaube ich bin auf dem Node: Habe ihn nur auch HAOS genannt. Ich füge mal einen Screenshot anbei. Wie gesagt, ich vollkommener Neuling mit proxmox.´.Screenshot 2024-12-15 124823.png
 
Okay, das ist verwirrend. Aber - wenn Du jetzt den Eintrag „100 (haos 13.2)“ auswählst und in dem daraus resultierenden Bereich rechts "Reboot" (aus dem Pulldown von "Shutdown") wählst, dann wird die gesamte Node neu gestartet?

1734267549632.png
 
Ja, der ping auf die node ip 192.168.1.4 wird unterbrochen und auch die proxmox gui verliert die Verbindung zum Datacenter.
 
Ganz ehrlich: Keine Ahnung, was die Ursache ist. Bei einem LXC Container würde ich schon kaum Verständnis für solch ein Verhalten zeigen, bei einer VM fehlt mir schlicht der Glaube, dass so etwas möglich ist.

Ich kann leider nicht helfen.
 
Ohne deine Netzkonfiguration zu kennen, würde ich als erstes den proxmox umbenennen. Z.B zu pve.
 
Aber das macht er ja nicht. Es ging darum, dass journalctl auf der Node ausgeführt werden sollte.

Aber - nur um 100% sicher zu gehen: Passiert das auch, wenn Du ihn Home Assistant selbst, unter Einstellungen - System oben rechts auf das „Power“-Symbol gehst und „Home Assistant neu starten“ wählst?
 
Trotzdem Danke !

Ich wollte eine Rücksicherung fahren und bin dabei auf das Problem gestoßen. Mit diesem Bug ist ein Restore unmöglich.

Vielleicht hat jemand anderes eine Lösung: Ich glaube immer noch, dass ich einen Fehler bei der Installation gemacht habe.
 
So, Erfolgsmeldung. Jetzt läuft es. Es war wohl irgendwas mit der hosts und/oder hostname Datei strubbelig. Ich habe dort den Node-Namen geändert. Das hatte zur Folge, dass das Datacenter nicht mehr über die GUI erreichbar war. Dann alles wieder auf den alten Namen zurückgesetzt und tatata - der Spuk war vorbei.

Also nochmals allen ein Herzliches Dankeschön !
 
  • Like
Reactions: ThoSo and UdoB

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!