Search results

  1. U

    Proxmox 6.2 Kernel Error Bad RIP Value

    Hi, with pve-qemu-kvm: 5.0.0-9 lvm looks good til now. pveversion -v proxmox-ve: 6.2-2 (running kernel: 5.4.65-1-pve) pve-manager: 6.2-11 (running version: 6.2-11/22fb4983) pve-kernel-5.4: 6.2-7 pve-kernel-helper: 6.2-7 pve-kernel-5.3: 6.1-6 pve-kernel-5.0: 6.0-11 pve-kernel-5.4.65-1-pve...
  2. U

    Proxmox 6.2 Kernel Error Bad RIP Value

    Hi, yes I can do that this evening. Then booting the actual pve-kernel-5.4.65-1-pve? I assume it's save to downgrade pve-qemu-kvm_5.0.0-9 with still running VMs before reboot? Udo
  3. U

    Proxmox 6.2 Kernel Error Bad RIP Value

    Hi Wolfgang, after the raid-extension was done, I updated yesterday evening the bios and boot the "old" kernel 5.3.13-3-pve and all looks well. But till today at 6:50h only - because at this time (6:30) many daily-jobs starts and do IO. Curiously the mostly IO is done by the zfs-raid1 (nvme)...
  4. U

    Proxmox 6.2 Kernel Error Bad RIP Value

    Hi Wolfgang, not realy - the special thing was an 100GB-Raidvolume for the proxmox-system and the other space for an big lvm-storage. But due the extension I had to migrate and delete the system-raid (but the issue starts just after reboot, where the system-raid still on the raidgroup). The...
  5. U

    Proxmox 6.2 Kernel Error Bad RIP Value

    Hi, sounds good! Don't forget, that we have some IO-Load: (sdb is the lvm hdd-raid) ATOP - pve02 2020/10/01 10:43:39 -------------- 10s elapsed PRC | sys 7.17s | user 7.91s | #proc...
  6. U

    Proxmox 6.2 Kernel Error Bad RIP Value

    Hi Wolfgang, yes the lvm storage is behind an perc: PERC H740P Mini (Integriert) Integrated RAID Controller 1 Firmware: 51.13.0-3485 Cache: 8192 MB The lvm is on an raid6 with 6 hdds (now in expansion-process with 2 further disks) On this node, there are only 2 lcm-storages defined...
  7. U

    Proxmox 6.2 Kernel Error Bad RIP Value

    Hi, I'm not sure if new hardware is the key - this happens for me with actual hardware (less than 1 year old). But I've running the kernel on other (older) Hardware without trouble… Udo
  8. U

    Proxmox 6.2 Kernel Error Bad RIP Value

    Hi, any news on this? I have an similiar effect, the VMs with lvm are still working, but all lvm-commands (lvs, vgs, pvs) hung and due this the node and all VMs are marked with an ? in the gui. Sep 28 21:14:27 pve02 kernel: [ 2783.664724] INFO: task pvs:411112 blocked for more than 362 seconds...
  9. U

    Virtuelle HDDs unter Windows extrem langsam

    Hi, wo kommt denn die leere MBR-Partition-Table her? Es wurde ja schon vorher empfohlen eine Sicherung anzulegen, wenn Du eine leere 4TB-Platte hast (achtung, inhalt wird überschrieben), die z.B. als /dev/sdc am Rechner hängt. Kannst Du folgenderweise eine Kopie der Platte anlegen: dd...
  10. U

    Virtuelle HDDs unter Windows extrem langsam

    Hmm, Windows95 filesysrtem mit den Anfangssektor und dann noch NetBSD - das sieht eher aus, als wenn dein Testdisk VM-Disks auf dem nicht mehr vorhandenen Filesystem gefunden hat. Dein ext3 würde auf jeden Fall anders aussehen - Z.B. mit Startsektor 2048 Was für eine Ausgabe bekommst Du denn...
  11. U

    Virtuelle HDDs unter Windows extrem langsam

    Hi, wie schon Dunuin schrieb, ist es wichtig zu wissen, ob eine Parttitiontable drauf war, und was für eine. Bei gpt steht eine Kopie im letzten Block und die kann benutzt werden um die Partitiontable wieder genauso anzulegen. Sonst muss man es wissen, wie sie angelegt war. Auf seine Frage hast...
  12. U

    Hotplug memory limits total memory to 44GB

    Hi Spirit, looks that the issue is still (or again?) on actually pve-nodes: pveversion pve-manager/6.2-11/22fb4983 (running kernel: 5.4.55-1-pve) qm start 436 kvm: -device pc-dimm,id=dimm61,memdev=mem-dimm61,node=1: a used vhost backend has no free memory slots left start failed: QEMU exited...
  13. U

    Experiences with online storage migration of huge volumes?

    Hi Alwin, unfortunality due the bad iscsi-raid the iowait are so high, that from other vms the drbd-sync (inside the vms) failed. Due that all VMs are using drbd inside to sync the data I recreate the big disks on the fibrechannel-raid and let DRBD resync the data again. Udo
  14. U

    Experiences with online storage migration of huge volumes?

    Hi all, I want to migrate some big VM-Volumes from an internal raid to an FC-Raid (LVM) online. And big mean realy big - up to 10TB. The destination raid should be much faster than the source-storage. Especially for the biggest volume, which are on an slow iscsi-raid (LVM) now. Has anybody...
  15. U

    Proxmox nutz nur 1 CPU und davon auch nur 1 Kern :-(

    Moin, sicher, dass es nicht eine bios-einstellung ist? Evtl., wenn Du nichts findest einfach auf Standard-Einstellungen zurückstellen. Udo
  16. U

    Open vSwitch - Einrichtungsfragen zu bridge, trunk, vlan, bond, etc.

    Hi, für eno1 brauchst Du keine Bridge - da hängen ja keine weiteren Interfaces (von VMs) mit drauf. Hier reicht es eno1 ganz normal mit der IP und dem Gateway einzurichten. Ob ein bond mit drei Interfaces jetzt sinnvoll ist, weiss ich nicht. Vielleicht ist da Dein Ansatz eine extra Bridge für...
  17. U

    Open vSwitch - Einrichtungsfragen zu bridge, trunk, vlan, bond, etc.

    Hi, Du kannst ein device (bond0) nur einer bridge zufügen. Ebenso machen in meinen Augen die vielen Bridges keinen Sinn. Klar kannst Du mehrere bonds aus vlan-getaggten devices anlegen, aber da sehe ich keinen Vorteil bei der Konfiguration. Keep it simple! Darum einfach bond0 als device von...
  18. U

    Why does Proxmox host require static IP?

    Hi, another point: you can't build an pve-cluster with dynamic ips. Udo
  19. U

    ISO not showing up under Create VM

    Hi, the subdir "template/iso" will automaticly create, if you select Iso Image as content - when you select Backup too, an directory named dump will created. So use Local - which should map to /var/lib/vz and put the iso in /var/lib/vz/template/iso/ If your iso don't show, how is the iso named...
  20. U

    [SOLVED] Server crashes since upgrade to 6.1-8

    Hi, in this case for 6GB (perhaps too much for an 16GB-server): cat /etc/modprobe.d/zfs.conf options zfs zfs_arc_min=6442450944 options zfs zfs_arc_max=6442450944 # # after changes it's important to run # update-initramfs -u # and reboot Udo