Recent content by rowa-hooge

  1. R

    VM hängt nach Online-Migration

    Ich habe den zweiten Server auf 6.2 aktualisiert und jew. eine Linux- und eine Windows-Maschine verschieben können. Endgültiges OK wollte ich erst geben wenn ich mehr Verschiebungen erfolgreich machen konnte. Es sieht nach aktuellem Stand aber vorläuftig gut aus :-)
  2. R

    VM hängt nach Online-Migration

    Ok, werde auch den Quellserver auf 6.2 hochziehen. Werde berichten ob es geholfen hat.
  3. R

    VM hängt nach Online-Migration

    Auf dem Quellserver läuft die neueste 5.15er Version. Hatte eigentlich gehofft daß ein Update des Zielservers ausreicht. Quellserver updaten bedeutet, daß ich einige VMs herunterfahren muß. Geht natürlich nicht im Tagesgeschäft.
  4. R

    VM hängt nach Online-Migration

    Die CPU der VMs ist immer "kvm64". Die o.a. CPU ist die Hardware die im Host verbaut ist.
  5. R

    VM hängt nach Online-Migration

    Hallo, ich habe hier schon länger ein massives Problem mit der Online-Migration. Nach dem Verschieben hängt die Maschine und ich bekomme sie nur mit Stop/Start wieder zum Leben. Ich habe jetzt auf dem Zielserver den neuesten Kernel 6.2 installiert, aber das Problem besteht weiterhin. CPU...
  6. R

    Corosync strange behaviour

    No, the IP stays the same. pveversion is identical on all nodes. Checked it again with diff. Here the ip config: PVE-08: ------- 7: eno4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether 08:f1:ea:8c:e3:97 brd ff:ff:ff:ff:ff:ff inet...
  7. R

    Corosync strange behaviour

    Restarted corosync on all three nodes. Dosn't change anything. Same problem as before.
  8. R

    Corosync strange behaviour

    corosync.cfg is identical on all nodes inside /etc/pve and /etc/corosync. Tested it with diff. One more thing: I changed network cards from dual to quadport so there are new MAC-Addresses. Don't know if that matters. root@pve-09:~# pveversion -v proxmox-ve: 6.3-1 (running kernel: 5.4.78-2-pve)...
  9. R

    Corosync strange behaviour

    Hello, today i detected some strange behavoir. I have a 3 Node cluster with two Rings configured, each on dedicated network ports. On each node i can check it with: corosync-cfgtool -n Local node ID 3, transport knet nodeid: 1 reachable LINK: 0 (172.16.120.9->172.16.120.10) enabled...