Im Anhang die Logfiles.
Den Workaround hatte ich auf den Node02 probiert, da aktuell das Problem vorliegt, um gleich zu sehen ob das Problem behoben wird - auf dem Node01 ist das Problem in den letzten Wochen nicht erneut aufgetreten.
Hallo Oguz,
vom anderen Node(host01), wo aktuell das Problem nicht vorliegt, das Journal im Anhang.
Vom problembehafteten Node(host02) ist die Datei leider zu groß zum Anhängen (gezippt 3MB), wäre eine Unterteilung in einzelnen Dateien für dich in Ordnung?
Die Versionen von beiden Nodes sind...
hier die letzten Einträge aus dem Journal.
Jun 13 14:25:26 HOST02 kernel: e1000e 0000:00:1f.6 enp0s31f6: Reset adapter unexpectedly
Jun 13 14:25:26 HOST02 kernel: vmbr0: port 1(enp0s31f6) entered disabled state
Jun 13 14:25:26 HOST02 kernel: vmbr0v31: port 1(enp0s31f6.31) entered disabled state...
Hallo nochmal,
danke für die Rückmeldung! Leider hat dies keine Abhilfe geschaffen und die VM ist weiterhin nicht erreichbar. Von den Logeinträgen bleibt es unverändert.
Aktuell wird folgender Kernel genutzt, falls das weiterhilft: 5.15.35-1-pve
Hättest du weitere Ideen/Ansätze, die ich...
@shrdlicka @oguz
Da das Problem zuletzt vor 5 Tagen aufgetreten ist, habe ich den aktuell betroffenden Node neugestartet und die VMs verteilt.
Ich werde dies noch einmal beobachten und sobald das Problem erneut auftritt, hier die aktuellen Logfiles reinposten, um auch entsprechend einen genauen...
Hallo Oguz,
das betrifft sämtliche VMs auf einem Node. Sobald ich eine/alle VMs auf den anderen Node migriere, sind diese wieder erreichbar.
Das ist aktuell die Abhilfe:
Problem taucht auf (VM nicht erreichbar) → VM auf anderen Node migrieren → Fehlerbehafteten Node neustarten → VM zurück...
Moin!
Folgend die Logeinträge seit dem letzten Neustart.
Jun 02 09:39:28 HOST02 systemd[1]: Started Corosync Cluster Engine.
Jun 02 09:39:33 HOST02 corosync[1809]: [KNET ] rx: host: 1 link: 0 is up
Jun 02 09:39:33 HOST02 corosync[1809]: [KNET ] host: host: 1 (passive) best link: 0...
Hallo,
wir haben aktuell Probleme mit der Netzwerkverbindung zu den VMs unter Proxmox 7.2-4.
Dies betrifft ein Cluster mit zwei Nodes auf den die VMs betrieben werden.
Fehlerbild:
Sporadisch sind die VMs nicht erreichbar, sobald diese auf den anderen Nodes migriert werden, kann eine Verbindung...
@fabian - this doesn't work, if we try to create a storage with the same name, the following error message appears:
storage ID 'host01-2tb-nvme' already defined (500)
zfs is used as the storage type.
Here ist the content of /etc/pve/storage.cfg
dir: local
path /var/lib/vz
content backup,vztmpl,iso
zfspool: local-zfs
pool rpool/data
content rootdir,images
sparse 1
rbd: rbd
content rootdir,images
krbd...
Hello,
we are using Proxmox with several different hard drives.
Proxmox runs locally via ZFS on a storage, there are no problems here either.
We have created additional NVMe hard drives as additional storage and are also recognized by Proxmox and are functional.
However, there is now a problem...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.