MacOS Ventura

DocMAX

Member
Jan 30, 2023
143
6
18
Bremen
Hallo, ich schaff es nicht MacOS Ventura zu installieren.
Bin nach dieser Anleitung gegangen: https://i12bretro.github.io/tutorials/0775.html
Meine CPU ist AMD 5800H. Wenn ich die boot.efi starte bleibe ich hier für immer stecken und startet dann neu:

1682151167295.png

Code:
args: -device isa-applesmc,osk="ourhardworkbythesewordsguardedpleasedontsteal(c)AppleComputerInc" -smbios type=2 -device usb-kbd,bus=ehci.0,port=2 -global nec-usb-xhci.msi=off -global ICH9-LPC.acpi-pci-hotplug-with-bridge-support=off -cpu Haswell-noTSX,vendor=GenuineIntel,+invtsc,+hypervisor,kvm=on,vmware-cpuid-freq=on
balloon: 0
bios: ovmf
boot: order=ide2;virtio0;net0;ide0
cores: 4
cpu: host
efidisk0: zpool:vm-1300-disk-0,efitype=4m,size=1M
ide0: zpool-nfs:iso/macOS_Ventura.iso,size=15400M,cache=unsafe
ide2: zpool-nfs:iso/OpenCore-v19.iso,size=150M,cache=unsafe
machine: q35
memory: 4096
meta: creation-qemu=7.2.0,ctime=1682116564
name: MacOSVentura
net0: virtio=32:A6:15:1B:DF:26,bridge=vmbr0,firewall=1
numa: 0
ostype: other
scsihw: virtio-scsi-pci
smbios1: uuid=753bc355-77e0-426b-b627-5a0e8919d770
sockets: 1
vga: vmware
virtio0: zpool:vm-1300-disk-1,cache=unsafe,discard=on,iothread=1,size=64G
vmgenid: 4560b70b-8a86-4cda-9ea6-c56aa1583bd0
 
Last edited:
  • Like
Reactions: noel.
Hi @DocMAX schön zu sehen, dass jemand das gleiche Problem "hatte". Ich habe es leider noch immer. Denn wenn ich Nich Sherlocks Clocksource guide folge passiert bei mir gar nix. Ich schreibe "dmesg | grep -i -e tsc -e clocksource" aber bei Schuss (Enter) gehts bei mir einfach auf eine neue Zeile mit root@...:

Eine Idee was ich falsch mache?
 
Ich schreibe "dmesg | grep -i -e tsc -e clocksource" aber bei Schuss (Enter) gehts bei mir einfach auf eine neue Zeile mit root@...:
Das heißt einfach, dass grep nichts findet. Das kann sein, weil der dmesg Buffer voll ist und die Nachrichten, die "tsc" und "clocksource" beinhalten, nicht mehr drin sind.

In /dev/log kannst du mal cat kern.log | grep -i -e tsc -e clocksource (bzw. alte kern.log.<zahl>.gz entzippen mit gunzip kern.log.<zahl>.gz und die durchgreppen).
Alternativ einfach mal den Server neu starten und nochmal mit dmesg | grep -i -e tsc -e clocksource versuchen.

kannst du auch mal deine vm config anhängen? kriegst du mittels cat /etc/pve/qemu-server/<VM-id>.conf
 
Hi @noel. ich poste mal so was ich habe und finde :)


Da mal Teil 1 - clocksource:
Code:
root@hci01:~# dmesg | grep -i -e tsc -e clocksource
[    0.000000] tsc: Detected 3200.000 MHz processor
[    0.000000] tsc: Detected 3187.200 MHz TSC
[    0.075424] TSC deadline timer available
[    0.075469] clocksource: refined-jiffies: mask: 0xffffffff max_cycles: 0xffffffff, max_idle_ns: 7645519600211568 ns
[    0.180424] clocksource: hpet: mask: 0xffffffff max_cycles: 0xffffffff, max_idle_ns: 99544814920 ns
[    0.200450] clocksource: tsc-early: mask: 0xffffffffffffffff max_cycles: 0x2df10e7656b, max_idle_ns: 440795364873 ns
[    0.269823] clocksource: jiffies: mask: 0xffffffff max_cycles: 0xffffffff, max_idle_ns: 7645041785100000 ns
[    0.538497] clocksource: Switched to clocksource tsc-early
[    0.551816] clocksource: acpi_pm: mask: 0xffffff max_cycles: 0xffffff, max_idle_ns: 2085701024 ns
[    0.564657] clocksource: tsc: mask: 0xffffffffffffffff max_cycles: 0x2df10e7656b, max_idle_ns: 440795364873 ns
[    0.564734] clocksource: Switched to clocksource tsc
root@hci01:~#


Teil 2 - Die VM conf:
Code:
agent: 1
args: -device isa-applesmc,osk="heregoestheoskkey" -smbios type=2 -device usb-kbd,bus=ehci.0,port=2 -global nec-usb-xhci.msi=off -global ICH9-LPC.acpi-pci-hotplug-with-bridge-support=off -cpu Haswell-noTSX,vendor=GenuineIntel,+invtsc,+hypervisor,kvm=on,vmware-cpuid-freq=on
balloon: 0
bios: ovmf
boot: order=virtio0
cores: 8
cpu: Haswell
cpuunits: 1024
efidisk0: local-zfs:vm-200-disk-0,efitype=4m,size=1M
hostpci0: 0000:03:00,pcie=1
machine: q35
memory: 4096
meta: creation-qemu=7.1.0,ctime=1685197899
name: Ventura
net0: virtio=FA:ES:B2:3C:47:43,bridge=vmbr0,firewall=1
numa: 0
ostype: other
scsihw: virtio-scsi-single
smbios1: uuid=XXXXXXXX-XXXX-XXXX-XXXX-XXXXXXXXXXX
sockets: 1
usb0: host=1-5,usb3=1
usb1: host=046d:c52b,usb3=1
vga: none
virtio0: local-zfs:vm-200-disk-1,cache=unsafe,discard=on,iothread=1,size=64G
vmgenid: XXXXXXX-XXXX-XXXX-XXXX-XXXXXXXXX


Teil 3 - Grub:
Code:
GRUB_CMDLINE_LINUX_DEFAULT="quiet clocksource=tsc tsc=reliable mitigations=off intel_iommu=on iommu=pt initcall_blacklist=sysfb_init"


Teil 4 - lspci -v output (GPU):
Code:
03:00.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] Navi 21 [Radeon RX 6800/6800 XT / 6900 XT] (rev c1) (prog-if 00 [VGA controller])
        Subsystem: ASUSTeK Computer Inc. Navi 21 [Radeon RX 6800/6800 XT / 6900 XT]
        Flags: bus master, fast devsel, latency 0, IRQ 229, IOMMU group 19
        Memory at 4400000000 (64-bit, prefetchable) [size=16G]
        Memory at 4200000000 (64-bit, prefetchable) [size=2M]
        I/O ports at 4000 [size=256]
        Memory at 72900000 (32-bit, non-prefetchable) [size=1M]
        Expansion ROM at 72a00000 [disabled] [size=128K]
        Capabilities: [48] Vendor Specific Information: Len=08 <?>
        Capabilities: [50] Power Management version 3
        Capabilities: [64] Express Legacy Endpoint, MSI 00
        Capabilities: [a0] MSI: Enable+ Count=1/1 Maskable- 64bit+
        Capabilities: [100] Vendor Specific Information: ID=0001 Rev=1 Len=010 <?>
        Capabilities: [150] Advanced Error Reporting
        Capabilities: [200] Physical Resizable BAR
        Capabilities: [240] Power Budgeting <?>
        Capabilities: [270] Secondary PCI Express
        Capabilities: [2a0] Access Control Services
        Capabilities: [2d0] Process Address Space ID (PASID)
        Capabilities: [320] Latency Tolerance Reporting
        Capabilities: [410] Physical Layer 16.0 GT/s <?>
        Capabilities: [440] Lane Margining at the Receiver <?>
        Kernel driver in use: vfio-pci
        Kernel modules: amdgpu


Teil 4.2 - lspci output (GPU):
Code:
root@hci01:~# lspci -n -s 03:00
03:00.0 0300: 1002:73bf (rev c1)
03:00.1 0403: 1002:ab28

Teil 4.3 - vfio.conf:
Code:
options vfio-pci ids=1002:ab28,1002:1479,1002:1478 disable_vga=1


Teil 5 - /etc/kernel/cmdline:
Code:
root=ZFS=rpool/ROOT/pve-1 boot=zfs quiet intel_iommu=on iommu=pt


Teil 6 - blacklist.conf:
Code:
blacklist radeon
blacklist nouveau
blacklist nvidia


Teil 7 - iommu_unsafe_interrupts.conf:
Code:
options vfio_iommu_type1 allow_unsafe_interrupts=1


Hoffe das hilft um mir zu helfen ;-)

Wie gesagt, ich habe eine W11 VM am laufen (nicht parallel) wo die GPU durchgereicht wird und dies sehr erfolgreich. Bei Monterey und Ventura bekomme ich dies jedoch nicht hin.


Danke
Dux


Update: ich denke ein paar Inputs zum Build wären noch hilfreich

Case: Fractal Meshify 2 RGB WH TG Clear
Power: be quiet! Dark Power Pro 12 1500W
Board: AsRock Taichi Z690
CPU: Intel i9 12900K
CPU Cooler: Corsair iCUE H150i Elite LCD 360mm Radiator und 3x 120mm RGB Lüfter
RAM: 2x 32GB 5200 DDR5 Corsair Dominator RGB
GPU: ASUS Radeon RX 6800 XT 16G
Cooler: 4x Aspect 14 RGB PWM
Storage: 1x 2TB SSD Samsung QVO 870, 2x 1TB SSD Samsung EVO 870, 2x 1TB M.2 NVMe SSD Seagate FireCuda 530
Display: 3x 27" LG UltraGear 27GP850-B
 
Last edited:
[ 0.564734] clocksource: Switched to clocksource tsc
schaut zumindest mal so aus, als wäre TSC nicht das Problem. Ich würde mal nur mit den basic kernel params versuchen: GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on".
Teil 5 - /etc/kernel/cmdline:
Code:
root=ZFS=rpool/ROOT/pve-1 boot=zfs quiet intel_iommu=on iommu=pt
Ich bin mir nicht sicher, wie du auf das kommst, du hast schon mit Grub die Kernel-Parameter gesetzt. Siehe [1] Abschnitt 3.12.3 und 3.12.6. Also am besten mal auskommentieren:
Code:
# root=ZFS=rpool/ROOT/pve-1 boot=zfs quiet intel_iommu=on iommu=pt

Ich sehe auch, dass du gleich versuchst eine GPU durchzureichen. Das ist ein weiter Punkt, wo dinge kaputt gehen können (aber was ich so sehe, sollte die GPU unterstützt sein, sollt also in Theorie laufen). Hier auch unsere docs [2] zu PCI passthrough und unsere wiki [3].

An deiner Stelle würde ich mal eine neue VM zu testen machen, wo ich Schritt für Schritt versuchen würde, das Setup von Nick Sherlock [4] nachzustellen. Und wenn das mal läuft, versuchen eine GPU durchzureichen.

[1]: https://pve.proxmox.com/pve-docs/pve-admin-guide.html#sysboot
[2]: https://pve.proxmox.com/pve-docs/pve-admin-guide.html#qm_pci_passthrough
[3]: https://pve.proxmox.com/wiki/PCI_Passthrough
[4]: https://www.nicksherlock.com/2022/10/installing-macos-13-ventura-on-proxmox/
 
  • Like
Reactions: duxnobis13
Hi @noel.

Vielen lieben Dank.

Werde das mit dem Auskommentieren versuchen. Das könnte noch ein Artefakt aus der Anfangszeit sein.

Was ich nicht ganz verstehe ist was du damit meinst: „Ich sehe auch, dass du gleich versuchst eine GPU durchzureichen.“

Wo müsste ich deiner Meinung nach was ändern?

Bezüglich deinem Vorschlag, das ist ja gerade der Grund wesahlb ich in diesem Forum bin

Die VM ist eigentlich ziemlich genau nach Nicks Guide entstanden. Könnte sein, dass ich danach als es eben mit dem Durchreichen nicht ging, andere Guides hinzugezogen habe.

Wie gesagt, die VM funktioniert über die console einwandfrei. Beide VM‘s eine mit Ventira und Monterey funktionieren perfekt. Einzig Safari läuft bei der Ventura Installation nicht, sprich die Google Suche läuft aber der Output ist dann eine weisse Seite. Wenn ich beispielsweise die Einstellungen vom MacOs öffne, dann erscheint im Hintergrund die Suche wieder bzw. die Suchergebnisse sind dann plötzlich ersichtlich. Schliesse ich die Einstellungen und geh wieder auf die Safari Seite sind sie wieder weg.

Anyway, also…

1) ich kommentiere die Grub Entries
2) jeder weitere Tip ist sehr willkommen


Nochmals lieben Dank ❤️
Dux
 
Wie gesagt, die VM funktioniert über die console einwandfrei. Beide VM‘s eine mit Ventira und Monterey funktionieren perfekt.
Achso, also du kannst schon eine Ventura VM machen, die dir dann im Proxmox Web Interface über NoVNC einen Output gibt? Nur mit dem GPU durchreichen geht's noch nicht?

Schreib vielleicht nochmal rein, was schon alles bei dir geht und was noch nicht geht/was du machen möchtest. Das steht in dem Thread noch nicht alles drinnen, sofern ich nix übersehe.

Nochmals lieben Dank ❤️
Gerne <3
 
  • Like
Reactions: duxnobis13
Das ist aktuell meine einzige Sorge.

Ich habe eine laufende Win11 VM mit durchgereichter GPU.
Diese läuft top.

Bei macOS schaffe ich das nicht.

ACHTUNG: die GPU wird nicht parallel laufengelassen. Wenn die eine VM gestartet wird, wird die andere vorher runtergefahren.

Sprich, mein Ziel/Problem ist es auch bei der macOS die GPU durchreichen zu können.

Wenn ich die GPU bei macOS aktiviere dann bleibt bei mir das Bikd beim apple Logo hangen. Ich sehe unter dem Logo noch den Progressbar, der jedoch leer bleibt. Ab da ist schluss. Bis ich die VM runterfahre.

Grüsse
Dux
 
Nick Sherlock hat noch einen Artikel, wo er die GPU durchreicht [1]. Ist allerdings ein wenig alt, aber vllt ist was nützliches dabei...

Du könntest auch mal testen, ob GPU passthrough in deiner Monterey VM geht.

Sonst kannst du natürlich mal reinschreiben, was passiert, wenn du Grub-Sachen anpasst und die Systemdboot line auskommentierst. Ich weiß nur nicht, wie weit ich dir helfen werden kann, falls das nix bringt, da ich mich nicht so gut mit Hackintosh auskenne, ich versuche natürlich mein Bestes. Ich habe auch leider nicht die Hardware da, um es selbst zu testen. Evnt findest du am Blog von Nick bessere Hilfe, falls wir nicht fündig werden.

[1]: https://www.nicksherlock.com/2018/11/my-macos-vm-proxmox-setup/
 
Vornweg sollte ich vielleicht noch erwähnen, dass ich ein ZFS Pool System aufgebaut habe. Wenn ich richtig verstanden habe geht das meist Hand in Hand mit "Systemd" bootloader. Korrekt?


Gemäss Punkt 3.12.3 habe ich mal checken wollen welchen Bootloader bei mir genutzt wird.

Dies habe ich bekommen und checke trotzdem nicht woraus ich boote. Es steht zwar "bootx64.efi" aber nicht wie in der Guide "grubx64.efi" aber eben auch nicht "systemd-bootx64.efi".

Code:
root@hci01:~# efibootmgr -v
BootCurrent: 0001
Timeout: 1 seconds
BootOrder: 0001,0002,0003,0004,0005,0006
Boot0001* UEFI OS       HD(2,GPT,76ddea56-ef64-4d33-b78e-e39b213a7121,0x800,0x100000)/File(\EFI\BOOT\BOOTX64.EFI)..BO
Boot0002* UEFI OS       HD(2,GPT,e5158e13-ab5b-4b1e-b3ea-86d6afdac10f,0x800,0x100000)/File(\EFI\BOOT\BOOTX64.EFI)..BO
Boot0003* ubuntu        HD(1,GPT,c06371f8-f8f4-42ec-9360-1641fb1d2c55,0x800,0x100000)/File(\EFI\ubuntu\shimx64.efi)..BO
Boot0004* UEFI: PXE IPv4 Aquantia AQtion 10Gbit Network Adapter PciRoot(0x0)/Pci(0x1b,0x0)/Pci(0x0,0x0)/MAC(245ebe6b0209,0)/IPv4(0.0.0.00.0.0.0,0,0)..BO
Boot0005* UEFI: PXE IPv6 Aquantia AQtion 10Gbit Network Adapter PciRoot(0x0)/Pci(0x1b,0x0)/Pci(0x0,0x0)/MAC(245ebe6b0209,0)/IPv6([::]:<->[::]:,0,0)..BO
Boot0006* UEFI:  USB, Partition 1       PciRoot(0x0)/Pci(0x14,0x0)/USB(17,0)/HD(1,MBR,0x0,0x800,0x394d800)..BO

Liegt hier ev. die Kartoffel begraben? :)

Den nächsten Tip aus der Guide ergab Folgendes:

Code:
root@hci01:~# proxmox-boot-tool status
Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount namespace..
System currently booted with uefi
ls: cannot access '/var/tmp/espmounts/44A2-FE31/vmlinuz-*': No such file or directory
44A2-FE31 is configured with: uefi (versions: 5.15.39-1-pve, 5.15.74-1-pve, 5.16.20-edge, 5.17.14-edge), grub (versions: )
44A3-35FA is configured with: uefi (versions: 5.15.39-1-pve, 5.15.74-1-pve, 5.16.20-edge, 5.17.14-edge)


Danke
Dux
 
Last edited:
Liegt hier ev. die Kartoffel begraben? :)
Ich bezweifle es, leider.

Vornweg sollte ich vielleicht noch erwähnen, dass ich ein ZFS Pool System aufgebaut habe. Wenn ich richtig verstanden habe geht das meist Hand in Hand mit "Systemd" bootloader. Korrekt?
Ja, 3.12 der Docs sagt: "For EFI Systems installed with ZFS as the root filesystem systemd-boot is used. All other deployments use the standard grub bootloader (this usually also applies to systems which are installed on top of Debian)."
Boot0001* UEFI OS HD(2,GPT,76ddea56-ef64-4d33-b78e-e39b213a7121,0x800,0x100000)/File(\EFI\BOOT\BOOTX64.EFI)..BO Boot0002* UEFI OS HD(2,GPT,e5158e13-ab5b-4b1e-b3ea-86d6afdac10f,0x800,0x100000)/File(\EFI\BOOT\BOOTX64.EFI)..BO
Zeigt leider nur den fallback-pfad vom Bootloader an [1].

Prizipiell machen deine Grub config:
GRUB_CMDLINE_LINUX_DEFAULT="quiet clocksource=tsc tsc=reliable mitigations=off intel_iommu=on iommu=pt initcall_blacklist=sysfb_init"
und deine Systemd config
root=ZFS=rpool/ROOT/pve-1 boot=zfs quiet intel_iommu=on iommu=pt
dasselbe: sie schicken kernelparameter and den Linux Kernel. Nachdem deine Grub und Systemd configs unterschiedliche Parameter setzen, kannst du cat /proc/cmdline eingeben und je nachdem was der output ist, weisst du dann, welchen Bootloader du benutzt. D.h. in Zukunft kannst du dann bei dem, den du benutzt, die Kernel Parameter setzen.

Wie aber angesprochen, ich weiss nicht, ob dort die Kartoffel (bei uns Erdapfel [2]) begragben ist.

Der oben verlinkte Post von Nick Sherlock [3] ist zwar outdated, aber er zeigt, welche parameter er für seine GPU benutzt. Am besten mal durchlesen, was die Parameter machen und ausprobieren, würde ich denken.

[1]: https://unix.stackexchange.com/ques...buntu-grubx64-efi-vs-boot-grub-x86-64-efi-gru
[2]: https://de.wiktionary.org/wiki/Erdapfel
 
Wie sagst du denn zu "Kartoffelstock"? lol

Wenn ich den command eingebe bekomme ich Folgendes:

Code:
root@hci01:~# cat /proc/cmdline
initrd=\EFI\proxmox\5.17.14-edge\initrd.img-5.17.14-edge root=ZFS=rpool/ROOT/pve-1 boot=zfs quiet intel_iommu=on iommu=pt

Auf jeden Fall habe ich gestern noch diverse Dinge getested und alles pointed zu systemd.

Gibt es eine "problemlose" Variante wie man von systemd zu grub switchen kann? Hast du ev. eine Guide zur Hand? Geht das überhaupt?

Grüsse aus der Schweiz
Dux
 
Wie sagst du denn zu "Kartoffelstock"? lol
Erdäpfelpüree^^ Aber die Berner sagen ja auch Härdäpfustocki, oder?

Ja, schaut nach Systemd aus.
Gibt es eine "problemlose" Variante wie man von systemd zu grub switchen kann? Hast du ev. eine Guide zur Hand? Geht das überhaupt?
Ich bin mir nicht sicher, warum du das machen wollen würdest. Du kannst die Kernel Commands genau so von Systemd aus schicken.

Z.B. in https://www.nicksherlock.com/2018/11/my-macos-vm-proxmox-setup/:
/etc/default/grub

Code:
...
GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on rootdelay=10"
...

einfach ersetzen mit:
root=ZFS=rpool/ROOT/pve-1 boot=zfs quiet intel_iommu=on iommu=pt rootdelay=10

in /etc/kernel/cmdline
 
Ok. Gut zu wissen.

Gibt es denn ev. auch parallel conf Files für:

- /etc/modprobe.d/vfio.conf
- /etc/modprobe.d/kvm.conf
- /etc/modules
- /etc/modprobe.d/blacklist.conf

was ist beispielsweise mit

- /etc/modprobe.d/kvm-intel.conf
- /etc/modprobe.d/vfio-pci.conf

Oder müssen gewisse Einträge in zbsp. beiden vfio conf Files drin sein? in vfio.conf und in vfio-pci.conf?
 
Last edited:
Die Namen der .conf Files sind egal, du kannst sie nennen wie du willst, ist nur, damit man sich auskennt, was welche .conf macht. D.h. du musst es nicht in vfio.conf und vfio-pci.conf schreiben, nur in eins.

Siehe man modprobe und man modprobe.d
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!