PVE 7.1 - Restored Windows VM friert beim Start ein

Nabend,

hier dasselbe Problem. Update von 6.4 auf 7.1 verlief in katastrophalem Zustand. Alle möglichen SCSI Änderungen, HW-Anpassungen in der PVE Config für die VMs etc. haben keine Besserung gebracht. Mit dem älteren Kernel bootet wieder alles normal.
 
Fatal ist aber dass es die Standardeinstellungen sind.
Für mich ist das ein Bug
Klar ist da ein Bug, aber der Bug ist nicht das io_uring der Standard ist, sondern dass der 5.13 Kernel mit manchen Disk Bustypen (hauptsächlich SATA) halt ein Problem hat. Sowas kann genauso gut mit den anderen Async Modi auch passieren, die sind ja nicht magisch von Bugs beschützt ;)

Nicht aufgefallen ist es daher da wir primär die empfohlenen Einstellungen testen, und ein Großteil der User diesen Empfehlungen ja auch folgt, gibt ja mit VirtIO-SCSI auch mehr Features und bessere Performance. Da offensichtlich doch ein paar Setups auch SATA verwenden, werden wir in Zukunft das in unsere Tests auch vermehrt einbinden.
 
Last edited:
  • Like
Reactions: noch_einer
Nicht aufgefallen ist es daher da wir primär die empfohlenen Einstellungen testen, und ein Großteil der User diesen Empfehlungen ja auch folgt, gibt ja mit VirtIO-SCSI auch mehr Features und bessere Performance.
guten Morgen,
das war mir klar und es waren ja auch SCSI-VMs betroffen, die SATA waren aus Hyper-V importiert und die fahren ja gar nicht mehr hoch wenn man den Bus ändert, also musste da SATA bleiben, die neuen VMs mache ich immer mit VirtIO Block.
Was nicht vom Bug betroffen ist war eben IDE (Windows 2000) welche ich immer noch zum Abbilden von Kundenkonfigurationen benötige.
Danke jedenfalls für Eure Mühen.
 
Hallo und guten Morgen,

Kann ich hier ebenfalls bestätigen. (Ich habe hier auch importierte Hyper-V Maschinen und daher eben SATA.. Muss ich bei Zeiten echt mal umstellen. :) )

Async IO umstellen wie von t.lamprecht beschrieben und die VMs starten wieder.

Auch von mir vielen Dank für die Mühen.
 
das war mir klar und es waren ja auch SCSI-VMs betroffen
Hätte ich bis jetzt zumindest noch nicht nachvollziehen können, der Test der mit SATA fehlschlägt funktioniert hier mit (VirtIO-)SCSI ohne Probleme, aber ich halte mal die Augen offen.

Wir werden uns nun den Kernel etwas genauer unter die Lupe nehmen, um so hoffentlich dem eigentlichen Bug auf die Schliche zu kommen.
 
  • Like
Reactions: noch_einer
Hallo zusammen (bin neu hier),

bin erst seit 2 Wochen mit Proxmox unterwegs :) und habe das gleiche Verhalten seit dem Update auf 7.1:
- Windows kann nur kurze Zeit benutzt werden, bevor es resetet werden muss
- Linux (ubuntu 21.10) hat damit keine Probleme
Hier einige Infos über die Hardware:
Code:
System:    Kernel: 5.13.19-1-pve x86_64 bits: 64 compiler: gcc v: 10.2.1 Console: tty 1 Distro: Debian GNU/Linux 11 (bullseye)
Machine:   Type: Desktop System: LENOVO product: 30AXXXX05 v: ThinkStation P300 serial: N/A
           Mobo: LENOVO model: SHARKBAY v: NO DPK serial: N/A UEFI: LENOVO v: FBKTD6AUS date: 05/06/2019
CPU:       Info: Quad Core model: Intel Xeon E3-1246 v3 bits: 64 type: MT MCP arch: Haswell rev: 3 L2 cache: 8 MiB
           flags: avx avx2 lm nx pae sse sse2 sse3 sse4_1 sse4_2 ssse3 vmx bogomips: 55870
           Speed: 3492 MHz min/max: 800/3900 MHz Core speeds (MHz): 1: 3492 2: 3501 3: 3500 4: 3493 5: 3493 6: 3494 7: 3492
           8: 3495
Graphics:  Device-1: NVIDIA GK106GL [Quadro K4000] vendor: Hewlett-Packard driver: nouveau v: kernel bus ID: 01:00.0
           Display: server: No display server data found. Headless machine? tty: 139x73
           Message: Advanced graphics data unavailable in console for root.
Audio:     Device-1: Intel 8 Series/C220 Series High Definition Audio vendor: Lenovo driver: snd_hda_intel v: kernel
           bus ID: 00:1b.0
           Device-2: NVIDIA GK106 HDMI Audio vendor: Hewlett-Packard driver: snd_hda_intel v: kernel bus ID: 01:00.1
           Sound Server: ALSA v: k5.13.19-1-pve
Network:   Device-1: Intel Ethernet I217-LM vendor: Lenovo driver: e1000e v: kernel port: f040 bus ID: 00:19.0
           IF: eno1 state: up speed: 1000 Mbps duplex: full mac: <filter>
           IF-ID-1: bonding_masters state: N/A speed: N/A duplex: N/A mac: N/A
           IF-ID-2: fwbr100i0 state: up speed: 10000 Mbps duplex: unknown mac: <filter>
           IF-ID-3: fwbr101i0 state: up speed: 10000 Mbps duplex: unknown mac: <filter>
           IF-ID-4: fwbr102i0 state: up speed: 10000 Mbps duplex: unknown mac: <filter>
           IF-ID-5: fwln100i0 state: up speed: 10000 Mbps duplex: full mac: <filter>
           IF-ID-6: fwln101i0 state: up speed: 10000 Mbps duplex: full mac: <filter>
           IF-ID-7: fwln102i0 state: up speed: 10000 Mbps duplex: full mac: <filter>
           IF-ID-8: fwpr100p0 state: up speed: 10000 Mbps duplex: full mac: <filter>
           IF-ID-9: fwpr101p0 state: up speed: 10000 Mbps duplex: full mac: <filter>
           IF-ID-10: fwpr102p0 state: up speed: 10000 Mbps duplex: full mac: <filter>
           IF-ID-11: tap100i0 state: unknown speed: 10 Mbps duplex: full mac: <filter>
           IF-ID-12: tap101i0 state: unknown speed: 10 Mbps duplex: full mac: <filter>
           IF-ID-13: veth102i0 state: up speed: 10000 Mbps duplex: full mac: <filter>
           IF-ID-14: vmbr0 state: up speed: 10000 Mbps duplex: unknown mac: <filter>
Drives:    Local Storage: total: 494.65 GiB used: 298.64 GiB (60.4%)
           ID-1: /dev/sda vendor: Crucial model: CT275MX300SSD1 size: 256.17 GiB temp: 24 C
           ID-2: /dev/sdb vendor: SanDisk model: SD8TB8U256G1001 size: 238.47 GiB temp: 23 C
Partition: ID-1: / size: 249.17 GiB used: 129.92 GiB (52.1%) fs: ext4 dev: /dev/dm-1 mapped: desk--vg-root
           ID-2: /boot size: 470.4 MiB used: 203 MiB (43.2%) fs: ext2 dev: /dev/sda2
           ID-3: /boot/efi size: 511 MiB used: 142.9 MiB (28.0%) fs: vfat dev: /dev/sda1
Swap:      ID-1: swap-1 type: partition size: 980 MiB used: 0 KiB (0.0%) dev: /dev/dm-2 mapped: desk--vg-swap_1
Sensors:   System Temperatures: cpu: 29.8 C mobo: 27.8 C gpu: nouveau temp: 44.0 C
           Fan Speeds (RPM): N/A gpu: nouveau fan: 2010
Info:      Processes: 263 Uptime: 16h 19m Memory: 31.28 GiB used: 12.92 GiB (41.3%) Init: systemd runlevel: 5 Compilers:
           gcc: N/A Packages: 886 Shell: Bash v: 5.1.4 inxi: 3.3.01
qm config 100 (windows)
agent: 1
audio0: device=ich9-intel-hda,driver=spice
balloon: 4048
bios: ovmf
boot: order=sata0;net0;ide2
cores: 2
efidisk0: local:100/vm-100-disk-1.qcow2,efitype=4m,pre-enrolled-keys=1,size=528K
ide2: local:iso/virtio-win-0.1.208.iso,media=cdrom,size=543390K
machine: pc-q35-6.0
memory: 8192
name: wind
net0: e1000=08:00:27:aa:bb:cc,bridge=vmbr0,firewall=1
numa: 0
onboot: 1
ostype: win10
sata0: local:100/vm-100-disk-0.qcow2,size=75G
scsihw: virtio-scsi-pci
smbios1: uuid=f9840701-58d2-4895-8a1d-06d3cb209b76
sockets: 1
startup: order=10,up=60,down=3
tpmstate0: local:100/vm-100-disk-3.raw,size=4M,version=v2.0
unused0: local:100/vm-100-disk-2.raw
vga: qxl
vmgenid: c64d4581-5bd9-404c-bc90-ac3b93e225ad

qm config 101 (ubuntu)
balloon: 4048
boot: order=scsi0;ide2;net0
cores: 2
ide2: none,media=cdrom
machine: q35
memory: 8192
name: desk
net0: virtio=08:00:27:aa:bb:c1,bridge=vmbr0,firewall=1
numa: 0
onboot: 1
ostype: l26
scsi0: local:101/vm-101-disk-0.qcow2,size=55G,ssd=1
scsihw: virtio-scsi-pci
smbios1: uuid=6ed443cd-bb0d-4956-b34f-abfc05ecf654
sockets: 1
tpmstate0: local:101/vm-101-disk-1.raw,size=4M,version=v2.0
vga: qxl
vmgenid: 6ffdf0f6-0ea5-4e72-944b-a5f8ff9932e3
 
Last edited:
die SATA waren aus Hyper-V importiert
Das verstehe ich aber gar nicht. Wenn die unter HyperV als Generation 1 liefen, dann hatten die da IDE und das übernimmt man dann oder wechselt zu VirtIO. Bei HyperV Generation 2 VMs, ist das OS auch per SCSI angebunden, da nutze ich beim Konvertieren beim ersten Boot auch IDE und nach dem installieren der VirtIO Treiber wieder SCSI. Mir erschließt sich nicht warum man auf SATA gehen sollte.
 
müssen Sie auch nicht.
Das waren meinen ersten Schritte mit Proxmox, null Erfahrung mit KVM und QEMU, da kann man ja mal Fehler machen?
Soll ja auch kein Vorwurf sein, sondern ich möchte gern wissen warum. Als ich angefangen habe, da ahbe ich mir ein Paar Anleitungen angeschaut und habe nirgendwo was mit SATA gefunden. Wenn man von HyperV kommt hatte man ja auch vorher immer nur IDE oder SCSI im Einsatz.
Daher fehlt mir die Herleitung warum SATA genutzt wird.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!