pveproxy worker/pvestatd/pvedaemon segfault

GerhardK

Member
Jul 8, 2020
16
1
23
34
Hallo zusammen,

seit rund 10 Tagen (nach upgrade auf 8.2.7) gehe ich (scheinbar) zufälligen segmentation faults auf die Schliche, die ich nicht erklären kann. Konkret sieht das ganze so aus:
Code:
Sep 24 02:25:58 server kernel: pool[197135]: segfault at 8 ip 0000583433640eaf sp 00007b891dfff680 error 4 in seaf-server[583433600000+131000] likely on CPU 19 (core 35, socket 0)
Sep 24 12:09:18 server kernel: pveproxy worker[253803]: segfault at 20000008 ip 00005a17179bc12a sp 00007ffecf581c50 error 4 in perl[5a17178d3000+195000] likely on CPU 11 (core 20, socket 0)
Sep 24 14:09:43 server kernel: pvestatd[1731]: segfault at ffffffffffffffff ip 00005660935dc4cc sp 00007ffd16f453c0 error 7 in perl[5660934f1000+195000] likely on CPU 11 (core 20, socket 0)
Sep 24 14:16:41 server kernel: pveproxy worker[1140726]: segfault at 9 ip 00005a17179bc12a sp 00007ffecf581c60 error 4 in perl[5a17178d3000+195000] likely on CPU 11 (core 20, socket 0)
Sep 24 17:57:37 server kernel: task UPID:server[1398859]: segfault at 9 ip 00006175f9f1d12a sp 00007ffce35add50 error 4 in perl[6175f9e34000+195000] likely on CPU 10 (core 20, socket 0)
Sep 24 17:57:48 server kernel: pvedaemon worke[1394624]: segfault at e ip 00006175f9f11627 sp 00007ffce35adad0 error 4 in perl[6175f9e34000+195000] likely on CPU 10 (core 20, socket 0)

Ursprünglich hatte ich einen LXC Container mit wireguard im Verdacht. Aber wie man den logs entnehmen kann, passiert er auch z.B. im LXC Container in dem Seafile läuft.

Konkret sieht ein Segmentation Fault des pveproxy workers wie folgt aus:
Code:
ep 24 12:09:18 server kernel: show_signal_msg: 55 callbacks suppressed
Sep 24 12:09:18 server kernel: pveproxy worker[253803]: segfault at 20000008 ip 00005a17179bc12a sp 00007ffecf581c50 error 4 in perl[5a17178d3000+195000] likely on CPU 11 (core 20, socket 0)
Sep 24 12:09:18 server kernel: Code: ff 00 00 00 81 e2 00 00 00 04 75 11 49 8b 96 f8 00 00 00 48 89 10 49 89 86 f8 00 00 00 49 83 ae f0 00 00 00 01 4d 85 ff 74 19 <41> 8b 47 08 85 c0 0f 84 c2 00 00 00 83 e8 01 41 89 47 08 0f 84 05

Auswirkung: Im Proxmox webinterface sind alle container/VMs ausgegraut (status Unknown).

Nachdem ich sogar mehrere LXC Container nach Ausschlussprinzip abgeschaltet hatte und nicht weiter kam, weil der Segmentation Fault immer wieder auftrat, habe ich einen memtest86+ und debsums durchgeführt, beides war unauffällig (passed/alles OK).

Ich habe daraufhin den Hetzner Support kontaktiert und um ein BIOS update gebeten, welches auch gestern durchgeführt wurde.
Eine Besserung hat dieses Update (bisher) gebracht - vor dem BIOS update hatte ich hard locks der CPU, sodass ich den Server per Webinterface neustarten musste, diese traten nach dem Update bisher nicht auf.

Soeben habe ich perl neuinstalliert, kann aber noch nicht sagen, ob das etwas gebracht hat (bezweifle ich aber stark)

An dieser Stelle bin ich aufgeschmissen und weiss ehrlich gesagt nicht mehr weiter, vielleicht hat jemand von euch ja eine Idee...

Hier noch ein paar Eckdaten:
Code:
pveversion -v
proxmox-ve: 8.2.0 (running kernel: 6.8.12-2-pve)
pve-manager: 8.2.7 (running version: 8.2.7/3e0176e6bb2ade3b)
proxmox-kernel-helper: 8.1.0
pve-kernel-6.2: 8.0.5
proxmox-kernel-6.8: 6.8.12-2
proxmox-kernel-6.8.12-2-pve-signed: 6.8.12-2
proxmox-kernel-6.8.12-1-pve-signed: 6.8.12-1
proxmox-kernel-6.5.13-6-pve-signed: 6.5.13-6
proxmox-kernel-6.5: 6.5.13-6
proxmox-kernel-6.2.16-20-pve: 6.2.16-20
proxmox-kernel-6.2: 6.2.16-20
pve-kernel-6.2.16-3-pve: 6.2.16-3
ceph-fuse: 17.2.6-pve1+3
corosync: 3.1.7-pve3
criu: 3.17.1-2
glusterfs-client: 10.3-5
ifupdown2: 3.2.0-1+pmx9
ksm-control-daemon: 1.5-1
libjs-extjs: 7.0.0-4
libknet1: 1.28-pve1
libproxmox-acme-perl: 1.5.1
libproxmox-backup-qemu0: 1.4.1
libproxmox-rs-perl: 0.3.4
libpve-access-control: 8.1.4
libpve-apiclient-perl: 3.3.2
libpve-cluster-api-perl: 8.0.7
libpve-cluster-perl: 8.0.7
libpve-common-perl: 8.2.3
libpve-guest-common-perl: 5.1.4
libpve-http-server-perl: 5.1.1
libpve-network-perl: 0.9.8
libpve-rs-perl: 0.8.10
libpve-storage-perl: 8.2.5
libspice-server1: 0.15.1-1
lvm2: 2.03.16-2
lxc-pve: 6.0.0-1
lxcfs: 6.0.0-pve2
novnc-pve: 1.4.0-4
proxmox-backup-client: 3.2.7-1
proxmox-backup-file-restore: 3.2.7-1
proxmox-firewall: 0.5.0
proxmox-kernel-helper: 8.1.0
proxmox-mail-forward: 0.2.3
proxmox-mini-journalreader: 1.4.0
proxmox-widget-toolkit: 4.2.3
pve-cluster: 8.0.7
pve-container: 5.2.0
pve-docs: 8.2.3
pve-edk2-firmware: 4.2023.08-4
pve-esxi-import-tools: 0.7.2
pve-firewall: 5.0.7
pve-firmware: 3.13-2
pve-ha-manager: 4.0.5
pve-i18n: 3.2.3
pve-qemu-kvm: 9.0.2-3
pve-xtermjs: 5.3.0-3
qemu-server: 8.2.4
smartmontools: 7.3-pve1
spiceterm: 3.3.0
swtpm: 0.8.0+pve1
vncterm: 1.8.0
zfsutils-linux: 2.2.6-pve1


Serverhardware: i9 13900, 64 GB ECC RAM, Asus W680/MB DC


Für jeden Hinweis bin ich sehr dankbar!

Viele Grüße
 
Es geht weiter...


Code:
Sep 25 00:41:10 server kernel: BUG: kernel NULL pointer dereference, address: 0000000000000000
Sep 25 00:41:10 server kernel: #PF: supervisor read access in kernel mode
Sep 25 00:41:10 server kernel: #PF: error_code(0x0000) - not-present page
Sep 25 00:41:10 server kernel: PGD 0 P4D 0
Sep 25 00:41:10 server kernel: Oops: 0000 [#1] PREEMPT SMP NOPTI
Sep 25 00:41:10 server kernel: CPU: 11 PID: 218 Comm: kcompactd0 Tainted: P           O       6.8.12-2-pve #1
Sep 25 00:41:10 server kernel: Hardware name: ASUSTeK COMPUTER INC. System Product Name/W680/MB DC, BIOS 2008 03/20/2024
Sep 25 00:41:10 server kernel: RIP: 0010:folio_migrate_mapping+0xc8/0x550
Sep 25 00:41:10 server kernel: Code: 74 04 41 8b 47 64 49 8b 17 80 e6 80 0f 85 06 03 00 00 01 c1 49 8b 07 a8 40 0f 84 09 03 00 00 41 8b 47 64 48 89 45 88 4d 8b 2f <4c> 8b 23 89 4d 84 48 8b 7d 98 4c 89 e8 49 c1 ed 33 48 c1 e8 36 41
Sep 25 00:41:10 server kernel: RSP: 0018:ffffad894092b958 EFLAGS: 00010246
Sep 25 00:41:10 server kernel: RAX: 0017ffffc0180009 RBX: 0000000000000000 RCX: 0000000000000002
Sep 25 00:41:10 server kernel: RDX: 0017ffffc0180009 RSI: 0000000000000000 RDI: ffff943c0d7f77a0
Sep 25 00:41:10 server kernel: RBP: ffffad894092ba08 R08: ffffad894092bb10 R09: 0000000000000000
Sep 25 00:41:10 server kernel: R10: 0000000000000000 R11: 0000000000000000 R12: 0000000000000000
Sep 25 00:41:10 server kernel: R13: 0017ffffc0180009 R14: 0000000000000000 R15: ffffda34c4dbd2c0
Sep 25 00:41:10 server kernel: FS:  0000000000000000(0000) GS:ffff944b3ed80000(0000) knlGS:0000000000000000
Sep 25 00:41:10 server kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Sep 25 00:41:10 server kernel: CR2: 0000000000000000 CR3: 000000018e342005 CR4: 0000000000f72ef0
Sep 25 00:41:10 server kernel: PKRU: 55555554
Sep 25 00:41:10 server kernel: Call Trace:
Sep 25 00:41:10 server kernel:  <TASK>
Sep 25 00:41:10 server kernel:  ? show_regs+0x6d/0x80
Sep 25 00:41:10 server kernel:  ? __die+0x24/0x80
Sep 25 00:41:10 server kernel:  ? page_fault_oops+0x176/0x500
Sep 25 00:41:10 server kernel:  ? do_user_addr_fault+0x2ed/0x660
Sep 25 00:41:10 server kernel:  ? exc_page_fault+0x83/0x1b0
Sep 25 00:41:10 server kernel:  ? asm_exc_page_fault+0x27/0x30
Sep 25 00:41:10 server kernel:  ? folio_migrate_mapping+0xc8/0x550
Sep 25 00:41:10 server kernel:  ? smp_call_function_many_cond+0x113/0x500
Sep 25 00:41:10 server kernel:  ? folio_migrate_mapping+0x4fc/0x550
Sep 25 00:41:10 server kernel:  migrate_folio+0x27/0x90
Sep 25 00:41:10 server kernel:  move_to_new_folio+0x63/0x170
Sep 25 00:41:10 server kernel:  ? migrate_pages_batch+0x87f/0xbf0
Sep 25 00:41:10 server kernel:  ? __pfx_compaction_free+0x10/0x10
Sep 25 00:41:10 server kernel:  ? __mod_memcg_lruvec_state+0x87/0x140
Sep 25 00:41:10 server kernel:  ? migrate_pages+0xbd7/0xd40
Sep 25 00:41:10 server kernel:  ? __mod_memcg_lruvec_state+0x87/0x140
Sep 25 00:41:10 server kernel:  ? __pfx_compaction_free+0x10/0x10
Sep 25 00:41:10 server kernel:  ? __pfx_compaction_alloc+0x10/0x10
Sep 25 00:41:10 server kernel:  ? compact_zone+0x9b6/0xfb0
Sep 25 00:41:10 server kernel:  ? finish_task_switch.isra.0+0x8c/0x310
Sep 25 00:41:10 server kernel:  ? proactive_compact_node+0x87/0xe0
Sep 25 00:41:10 server kernel:  ? kcompactd+0x2d5/0x460
Sep 25 00:41:10 server kernel:  ? __pfx_autoremove_wake_function+0x10/0x10
Sep 25 00:41:10 server kernel:  ? __pfx_kcompactd+0x10/0x10
Sep 25 00:41:10 server kernel:  ? kthread+0xef/0x120
Sep 25 00:41:10 server kernel:  ? __pfx_kthread+0x10/0x10
Sep 25 00:41:10 server kernel:  ? ret_from_fork+0x44/0x70
Sep 25 00:41:10 server kernel:  ? __pfx_kthread+0x10/0x10
Sep 25 00:41:10 server kernel:  ? ret_from_fork_asm+0x1b/0x30
Sep 25 00:41:10 server kernel:  </TASK>
Sep 25 00:41:10 server kernel: Modules linked in: tcp_diag inet_diag overlay ccm iptable_mangle wireguard curve25519_x86_64 libchacha20poly1305 chacha_x86_64 poly1305_x86_64 libcurve25519_generic libchacha ip6_udp_tunnel udp_tunnel xt_state nf_conntrack_netlink xt_nat xt_conntrack nft_chain_nat xfrm_user xfrm_algo xt_addrtype nft_compat cmac nls_utf8 cifs cifs_arc4 nls_ucs2_utils rdma_cm iw_cm ib_cm ib_core cifs_md4 netfs cfg80211 veth ebtable_filter ebtables ip_set ip6table_raw ip6table_filter ip6_tables nf_tables iptable_filter xt_tcpudp iptable_raw xt_CT iptable_nat xt_MASQUERADE nf_nat nf_conntrack nf_defrag_ipv6 nf_defrag_ipv4 softdog sunrpc binfmt_misc bonding tls nfnetlink_log nfnetlink xe drm_gpuvm drm_exec gpu_sched drm_suballoc_helper drm_ttm_helper intel_rapl_msr intel_rapl_common intel_uncore_frequency intel_uncore_frequency_common intel_tcc_cooling x86_pkg_temp_thermal intel_powerclamp coretemp kvm_intel i915 kvm irqbypass crct10dif_pclmul polyval_clmulni polyval_generic ghash_clmulni_intel sha256_ssse3 sha1_ssse3
Sep 25 00:41:10 server kernel:  aesni_intel crypto_simd drm_buddy cryptd mei_hdcp mei_pxp ttm drm_display_helper rapl cmdlinepart spi_nor intel_cstate cec mei_me mtd serio_raw eeepc_wmi pcspkr wmi_bmof rc_core mei i2c_algo_bit intel_pmc_core intel_vsec pmt_telemetry pmt_class acpi_tad acpi_pad joydev input_leds mac_hid vhost_net vhost vhost_iotlb tap efi_pstore dmi_sysfs ip_tables x_tables autofs4 zfs(PO) spl(O) btrfs blake2b_generic xor raid6_pq libcrc32c hid_generic usbmouse usbkbd usbhid hid mfd_aaeon asus_wmi ledtrig_audio sparse_keymap platform_profile nvme xhci_pci xhci_pci_renesas crc32_pclmul nvme_core spi_intel_pci xhci_hcd i2c_i801 igc spi_intel intel_lpss_pci ahci i2c_smbus video intel_lpss nvme_auth libahci idma64 wmi pinctrl_alderlake
Sep 25 00:41:10 server kernel: CR2: 0000000000000000
Sep 25 00:41:10 server kernel: ---[ end trace 0000000000000000 ]---
Sep 25 00:41:10 server kernel: RIP: 0010:folio_migrate_mapping+0xc8/0x550
Sep 25 00:41:10 server kernel: Code: 74 04 41 8b 47 64 49 8b 17 80 e6 80 0f 85 06 03 00 00 01 c1 49 8b 07 a8 40 0f 84 09 03 00 00 41 8b 47 64 48 89 45 88 4d 8b 2f <4c> 8b 23 89 4d 84 48 8b 7d 98 4c 89 e8 49 c1 ed 33 48 c1 e8 36 41
Sep 25 00:41:10 server kernel: RSP: 0018:ffffad894092b958 EFLAGS: 00010246
Sep 25 00:41:10 server kernel: RAX: 0017ffffc0180009 RBX: 0000000000000000 RCX: 0000000000000002
Sep 25 00:41:10 server kernel: RDX: 0017ffffc0180009 RSI: 0000000000000000 RDI: ffff943c0d7f77a0
Sep 25 00:41:10 server kernel: RBP: ffffad894092ba08 R08: ffffad894092bb10 R09: 0000000000000000
Sep 25 00:41:10 server kernel: R10: 0000000000000000 R11: 0000000000000000 R12: 0000000000000000
Sep 25 00:41:10 server kernel: R13: 0017ffffc0180009 R14: 0000000000000000 R15: ffffda34c4dbd2c0
Sep 25 00:41:10 server kernel: FS:  0000000000000000(0000) GS:ffff944b3ed80000(0000) knlGS:0000000000000000
Sep 25 00:41:10 server kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Sep 25 00:41:10 server kernel: CR2: 0000000000000000 CR3: 000000018e342005 CR4: 0000000000f72ef0
Sep 25 00:41:10 server kernel: PKRU: 55555554
Sep 25 00:41:10 server kernel: note: kcompactd0[218] exited with irqs disabled
 
Nach dem BIOS update bekomme ich zwar keine soft oder hard locks mehr dafür aber folgendes:


Code:
Sep 26 02:23:03 servers kernel: CPU: 11 PID: 79094 Comm: sshd Tainted: P      D    O       6.8.12-2-pve #1
Sep 26 02:23:03 servers kernel: Hardware name: ASUSTeK COMPUTER INC. System Product Name/W680/MB DC, BIOS 2008 03/20/2024
Sep 26 02:23:03 servers kernel: Call Trace:
Sep 26 02:23:03 servers kernel:  <TASK>
Sep 26 02:23:03 servers kernel:  dump_stack_lvl+0x76/0xa0
Sep 26 02:23:03 servers kernel:  dump_stack+0x10/0x20
Sep 26 02:23:03 servers kernel:  print_bad_pte+0x1be/0x280
Sep 26 02:23:03 servers kernel:  vm_normal_page+0xf6/0x110
Sep 26 02:23:03 servers kernel:  unmap_page_range+0x4f3/0x11e0
Sep 26 02:23:03 servers kernel:  unmap_single_vma+0x89/0xf0
Sep 26 02:23:03 servers kernel:  unmap_vmas+0xb5/0x190
Sep 26 02:23:03 servers kernel:  unmap_region+0xe8/0x180
Sep 26 02:23:03 servers kernel:  do_vmi_align_munmap+0x3e8/0x5b0
Sep 26 02:23:03 servers kernel:  do_vmi_munmap+0xdf/0x190
Sep 26 02:23:03 servers kernel:  __vm_munmap+0xad/0x180
Sep 26 02:23:03 servers kernel:  ? get_page_from_freelist+0x4bb/0x1200
Sep 26 02:23:03 servers kernel:  __x64_sys_munmap+0x27/0x40
Sep 26 02:23:03 servers kernel:  x64_sys_call+0x1b1f/0x24b0
Sep 26 02:23:03 servers kernel:  do_syscall_64+0x81/0x170
Sep 26 02:23:03 servers kernel:  ? __alloc_pages+0x251/0x1320
Sep 26 02:23:03 servers kernel:  ? __mod_memcg_lruvec_state+0x87/0x140
Sep 26 02:23:03 servers kernel:  ? release_pages+0x152/0x4c0
Sep 26 02:23:03 servers kernel:  ? __smp_call_single_queue+0xc3/0x140
Sep 26 02:23:03 servers kernel:  ? generic_exec_single+0x3a/0x150
Sep 26 02:23:03 servers kernel:  ? smp_call_function_single_async+0x22/0x50
Sep 26 02:23:03 servers kernel:  ? trigger_load_balance+0x1b9/0x370
Sep 26 02:23:03 servers kernel:  ? scheduler_tick+0x134/0x320
Sep 26 02:23:03 servers kernel:  ? account_user_time+0xa2/0xc0
Sep 26 02:23:03 servers kernel:  ? update_process_times+0x8e/0xb0
Sep 26 02:23:03 servers kernel:  ? tick_sched_handle+0x32/0x70
Sep 26 02:23:03 servers kernel:  ? timerqueue_add+0xa6/0xd0
Sep 26 02:23:03 servers kernel:  ? ktime_get+0x45/0xc0
Sep 26 02:23:03 servers kernel:  ? __pfx_tick_nohz_highres_handler+0x10/0x10
Sep 26 02:23:03 servers kernel:  ? lapic_next_deadline+0x2c/0x50
Sep 26 02:23:03 servers kernel:  ? clockevents_program_event+0xb3/0x140
Sep 26 02:23:03 servers kernel:  ? tick_program_event+0x43/0xa0
Sep 26 02:23:03 servers kernel:  ? hrtimer_interrupt+0x11f/0x250
Sep 26 02:23:03 servers kernel:  ? irqentry_exit_to_user_mode+0x7e/0x260
Sep 26 02:23:03 servers kernel:  ? irqentry_exit+0x43/0x50
Sep 26 02:23:03 servers kernel:  entry_SYSCALL_64_after_hwframe+0x78/0x80
Sep 26 02:23:03 servers kernel: RIP: 0033:0x7c585c4758f7
Sep 26 02:23:03 servers kernel: Code: 00 00 00 48 8b 15 09 05 0d 00 f7 d8 64 89 02 48 c7 c0 ff ff ff ff c3 66 2e 0f 1f 84 00 00 00 00 00 66 90 b8 0b 00 00 00 0f 05 <48> 3d 01 f0 ff ff 73 01 c3 48 8b 0d d9 04 0d 00 f7 d8 64 89 01 48
Sep 26 02:23:03 servers kernel: RSP: 002b:00007ffc9a27f2d8 EFLAGS: 00000206 ORIG_RAX: 000000000000000b
Sep 26 02:23:03 servers kernel: RAX: ffffffffffffffda RBX: 000057b132088060 RCX: 00007c585c4758f7
Sep 26 02:23:03 servers kernel: RDX: 000057b132088080 RSI: 0000000001006040 RDI: 00007c585ac00000
Sep 26 02:23:03 servers kernel: RBP: 000057b132085e90 R08: 0000000000000032 R09: 0000000000000020
Sep 26 02:23:03 servers kernel: R10: 00007ffc9a27f230 R11: 0000000000000206 R12: 0000000000000009
Sep 26 02:23:03 servers kernel: R13: 000057b132087860 R14: 000057b132088060 R15: 000057b132088080
Sep 26 02:23:03 servers kernel:  </TASK>
Sep 26 02:23:07 servers kernel: BUG: Bad rss-counter state mm:00000000853ef16f type:MM_ANONPAGES val:1
 
Ein paar Gedanken:
  • Das Bios (ASUS [...] W680/MB DC, BIOS 2008 03/20/2024) ist immer noch relativ alt und es ist wohl davon auszugehen, dass noch keine eine der Änderungen seitens Intel gegen die Stabilitätsprobleme in dieser Version enthalten sind.
    Keine Ahnung wie vergleichbar die OEM-Version mit den möglicherweise ähnlichen Retail-Versionen ist, aber hier: [1] mal die Bios History letzterer; an denen man sich zumindest datumstechnisch mal orientieren kann.
    Nichts was du daran ändern kannst; ausser beim Serveranbieter nachzufragen und ggf. diesbezüglich dran zu bleiben...
  • intel-microcode installieren: [2].
  • Edit: Falls zuvor nicht bereits auf Dauer erfolgreich explizit aktiviert, intel_iommu wieder (testweise) deaktivieren (=off): [3].
  • Älteren Kernel, z.B.: 6.5, probieren.
  • Ggf. Serveranbieter um Austausch des Servers bitten...

[1a] https://www.asus.com/de/motherboard...-ace/helpdesk_bios?model2Name=Pro-WS-W680-ACE
[1b] https://www.asus.com/de/motherboard...helpdesk_bios?model2Name=Pro-WS-W680-ACE-IPMI
[1c] https://www.asus.com/de/motherboard.../helpdesk_bios?model2Name=Pro-WS-W680M-ACE-SE
[2] https://pve.proxmox.com/pve-docs/chapter-sysadmin.html#sysadmin_firmware_cpu
[3] https://pve.proxmox.com/wiki/Roadmap#Proxmox_VE_8.2 -> "Known Issues & Breaking Changes" -> "Kernel: intel_iommu now defaults to on"
 
Last edited:
Danke noch einmal für die Unterstützung. Mein Serveranbieter hat die Hardware soeben ausgetauscht - mal schauen, ob das etwas bewirkt.... Ich bin gespannt...

Entsprechend habe ich auf die anderen Punkte verzichtet - oder würdest Du trotzdem eine der Maßnahmen ergreifen?
Die BIOS Version ist leider die "neuste freigegebene Version" des Serveranbieters...

Viele Grüße und schönen Sonntag!
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!