Recent content by volleasy

  1. V

    Kernel 22.04. security issue

    Hallo, ich habe Proxmox 7.4 laufen und frage mich gerade ob das den Proxmox Kernel gleichfalls betrifft https://ubuntu.com/security/notices/USN-6626-2 gruß volleasy
  2. V

    Upgrade Proxmox 6.4 und ceph nautilus zu 7.3 und quincy

    Hallo Mira, vielen Dank für die Links.
  3. V

    Upgrade Proxmox 6.4 und ceph nautilus zu 7.3 und quincy

    Hallo, ich habe ein sehr stabiles 9 Node Cluster mit proxmox 6.4 und Ceph nautilus. Mein Rack steht im Ausland und ich habe nur 2,5 Tage Zeit für das Upgrade. Remote mache ich so etwas sehr ungern. Daher meine Frage nach einem Upgrade Guide von 6.4 auf 7.3 . Habe in der Roadmap gelesen das...
  4. V

    [SOLVED] VM very slow after restored in new Cluster

    Thx, this is what I´ve tried today, I seems it works only when I change to virtio and back to ide. Yesterday I tried without sucsess to switch from scsi back to IDE. Now VM is running as expected. I do this workaroundnow on the other restored VM´s too. No I´ve not updated the bios of all...
  5. V

    [SOLVED] VM very slow after restored in new Cluster

    Hello Wolfgang, thx for reply. that are old VM´s running in Proxmox since years. when I use the internal shell, I have a lot of kernel issues like below. root@xxxxxxxxxxx :~# [1800.160113] INFO: task cleanup:7262 blocked for more than 120 seconds. [1800.160112] Not tainted...
  6. V

    [SOLVED] VM very slow after restored in new Cluster

    Hello, I restored two VM in a new Cluster. After boot up all operations are very slow. I copied the backup from 4.4 Proxmox to 5.3 cluster First step was to create a VM with same ID: and same Boot disk size next was to restore from Backup to this VM After boot the VM is very slow old...
  7. V

    [SOLVED] Container kein Backup, kein shutdown , kein reboot

    Nach einem Neustart des Note, ist auch der CT wieder sauber gestartet und das Backup lief durch- insoweit gelöst. Offen bleibt warum es überhaupt passiert ist. Keine Zeit das noch mal zu reproduzieren.
  8. V

    [SOLVED] Container kein Backup, kein shutdown , kein reboot

    Ok, habe jetzt den Service gestoppt. status sagt ● pve-container@120.service - PVE LXC Container: 120 Loaded: loaded (/lib/systemd/system/pve-container@.service; static; vendor preset: enabled) Active: failed (Result: timeout) since Thu 2018-12-13 21:09:00 EET; 12s ago Docs...
  9. V

    [SOLVED] Container kein Backup, kein shutdown , kein reboot

    Vor ein paar Wochen habe ich einen CT von einem 4.4 Cluster auf ein 5.2 cluster migriert. Die Wiederherstellung habe ich aus einem Backup gemacht. Jetzt habe ich festgestellt das kein Backup läuft. TASK ERROR: CT is locked (snapshot-delete) Ok snapshot gelöscht rbd: sysfs write failed TASK...
  10. V

    node kicked out of cluster after changing nic

    At the end it was a littel config error in /etc/network/interfaces. There was vor 2nd IP auto vmbr1 in /etc/network/interfaces. now I correct to vmbr1:1 and after a reboot cluster works. When I manualy bring up the bridge (ifup vmbr1:1) the bridge was up but corosync.server failed to start. Only...
  11. V

    node kicked out of cluster after changing nic

    Hi, running 4 node cluster with multiple networks cards.(pve 5.0) ceph and corosync working via broadecom vdx 6740 switch in switchport mode, Internet Gateway and VM bridge is on normal 1gb procurve switch. no Vlan, no trunking, just switching. I´m 1600km away from the datacenter, and one nic...
  12. V

    Ceph - Network File Share Drive

    I´ve create disks in RBD with OMV as VM. prepare them as an iscsi device connect to one Proxmox Host. Then I´ve a disk /dev/sdX, and mount that disk to /media/XXX. In the DataCenter you can add it like a normal directory /media/xxx. I use it as backup location and for the iso files. You can use...
  13. V

    [SOLVED] Netzwerkfrage - subnetz nachträglich ändern

    Danke für die Hinweise, habe jetzt alles soweit fertig und mache den hier mal zu
  14. V

    [SOLVED] Netzwerkfrage - subnetz nachträglich ändern

    danke, dann habe ich was falsch verstanden. Ich dachte das Corosync und Proxmox Cluster Network sind eins. Wenn ich die Maschinen von einem Node zu anderen verschiebe oder mit HA ein cold Replikat habe, dann macht die Bandbreite schon was aus. Ich sollte noch mehr lesen :-)