Latest activity

  • B
    Das -f ist hier absolut sicher — ZFS meckert nur, weil es erkennt, dass der by-id-Pfad auf dieselbe physische Platte zeigt, die bereits im Pool ist. Genau das wollen wir ja. Allerdings: Du hast -part1 angehängt, das ist falsch. sdf wurde als...
  • N
    Habe die alte IPv4 als statische zugewiesen und nach einem neustart war eine verbindung wiederhergestellt (vermutlich, weil der ct nur ipv6 hatte und mein Heimnetz kein ipv6 ins internet hat) siehe #19 ab zeil
  • cheiss
    Hi, we have a guide for replacing a failed ZFS device, including the case of a bootable device: https://pve.proxmox.com/pve-docs/pve-admin-guide.html#sysadmin_zfs_change_failed_dev And just to note; these MX500 are really not meant for...
  • aaron
    rbd -p <pool> du would be the quickest way
  • O
    oberfragger replied to the thread NAS UGreen DXP4800 Plus.
    Hat irgendwie bei mir nicht geklappt. Ich probier das wohl irgendwann nochmal.
  • O
    oberfragger reacted to uwka77's post in the thread NAS UGreen DXP4800 Plus with Like Like.
    Moin, ich habe noch eine andere Anleitung speziell für Proxmox gefunden. Nach dieser Anleitung habe ich den Kernel nach einem Kernelupdate neu gebaut (statt die .deb-Pakete einzuspielen) - hat bei mir funktioniert (ich habe aber OMV).
  • P
    Hi everyone, I've run into a serious issue while managing a Proxmox VE Ceph environment. A user created a lot of VMs and ended up filling the entire Ceph cluster. The problem is, when I look at the RBD storage in the WebUI, I can only see the...
    • messageImage_1772613347924.jpg
  • B
    @nitrosont, dein top-Output zeigt das Problem ziemlich eindeutig — es ist kein CPU-Problem, sondern Speicher: MiB Mem: 256.0 total, 1.2 free, 253.3 used — RAM praktisch voll MiB Swap: 256.0 total, 0.1 free, 255.9 used — Swap ebenfalls voll...
  • B
    @Joe77, die winsat-Ergebnisse mit v3 vs v4 sind praktisch identisch (Random 16K Read 179 vs 192 MB/s) — CPU-Typ und VBS sind damit als Ursache ausgeschlossen. Dass eine einzelne SATA-SSD bei @boisbleu 831 MB/s Random Read liefert und deine drei...
  • Stoiko Ivanov
    This has been fixed in PMG 9: https://bugzilla.proxmox.com/show_bug.cgi?id=5367
  • P
    Hi All, I have a mirrored pair of Crucial MX500 on which I have installed Proxmox and which host my rpool. One of the drives has started reporting read and write errors which resulted in the pool being degraded and then faulting, despite SMART...
  • I
    Thank you for your support. After updating the BIOS, the issue is reversed: RTX2080Ti is recognised, while RTX5090 is not. After some try and error. I managed to make everything work by using OVMF BIOS in the VM. Please mark this post as...
  • U
    uwka77 replied to the thread NAS UGreen DXP4800 Plus.
    Moin, ich habe noch eine andere Anleitung speziell für Proxmox gefunden. Nach dieser Anleitung habe ich den Kernel nach einem Kernelupdate neu gebaut (statt die .deb-Pakete einzuspielen) - hat bei mir funktioniert (ich habe aber OMV).
  • J
    Hi, Since your hard disk (ide1) is orange, it's not plugged, you need to stop/start the VM to take effect; and it's most likely due to the fact that you are using the "LSI" controller with IDE disk (if I remember correctly, hot plug was never...
  • K
    There's a LVM + snapshots. This is a partition connected via SAN. The VM has a snapshot, but for some reason I can't delete it. delete qemu external snapshot delete first snapshot upd block-commit current to base:upd commit-drive-scsi1...
  • J
    Hey, you basically answered all your question already :) I would recommend using the metadata mode. As with the normal mode, every file needs to be read again and chunked, to see if anything has changed. You can only improve this behavior, by...
  • J
    Johannes S reacted to Neobin's post in the thread Proxmox für 500-1000 VMs with Like Like.
    Der KI-Bot hängt... :rolleyes:
  • J
    Johannes S reacted to Falk R.'s post in the thread Proxmox für 500-1000 VMs with Like Like.
    Hi, ich verstehe nicht was da nicht inkrementell ist. Wenn man klassische Backupsysteme von Früher anschaut, da wurde bei jedem inkrementellen Backup alles gelesen. Was du meinst ist die Dirty Bitmap, die das inkrementelle Sichern beschleunigt...
  • J
    Johannes S reacted to Bu66as's post in the thread Proxmox für 500-1000 VMs with Like Like.
    @Stefan123 wenn ihr ein dediziertes Ceph-Cluster nutzt und die Compute-Nodes nur als Hypervisor laufen, dann brauchen die Nodes lokal keine schnellen Platten für die VM-Workloads — die I/O läuft ja komplett übers Netzwerk zum Ceph-Cluster...
  • J
    Johannes S reacted to Falk R.'s post in the thread Proxmox für 500-1000 VMs with Like Like.
    Lese mal die definition von Inkrementell. Das Inkrementell bezieht sich auf die Speicherung der Daten und die Datenmenge. Die Dirty Bitmap ist ein Zusatzfeatures, damit Inkrementell schneller geht, aber ändert nichts an der Speicherung. Nur weil...