Search results

  1. F

    GPU in VM in RDS Setup? Erfahrungen? Pitfalls?

    Hallo Leute, habe Windows 2019 Session Host eine GPU (Nvidia Quadro M4000) spendiert. Nach einigem herumbasteln und stöbern im Forum hat das Setup geklappt. Der Windows Geräte Manager zeigt nun neben dem Microsoft Basic Display Adapter auch die M4000 an, soweit so gut. Wollte nun in Photoshop...
  2. F

    Seit PVE 6.1: stockende VM während dem Backup

    Jup...kann das auch bestätigen. Hab die Shares nun via CIFS eingebunden und die Fehler sind weg. Netter Nebeneffekt: schneller ist das Backup nun auch :cool:
  3. F

    Seit PVE 6.1: stockende VM während dem Backup

    Hab letzte Woche mal neueste Updates auf allen Nodes eingespielt aber keine Verbesserung :( proxmox-ve: 6.1-2 (running kernel: 5.3.13-1-pve) pve-manager: 6.1-5 (running version: 6.1-5/9bf06119) pve-kernel-5.3: 6.1-1 pve-kernel-helper: 6.1-1 pve-kernel-5.0: 6.0-11 pve-kernel-5.3.13-1-pve...
  4. F

    Seit PVE 6.1: stockende VM während dem Backup

    Ist FreeNAS in der Version 11.2-U4.1. @j-a-n Schön, bzw. nicht schön ;) das ich nicht allein bin.
  5. F

    Seit PVE 6.1: stockende VM während dem Backup

    Hallo Leute, hab einen Cluster mit 6 Hosts, 4 davon sind ebenfalls Ceph OSD Hosts. Backup läuft auf einen eigenen NFS Server. Nun hab ich vor 2 Wochen auf PVE 6.1 aktualisiert und seitdem stocken die VMs kurzeitig wenn ein vzdump Backup durchgeführt wird. Man kann sie weder im Netzwerk...
  6. F

    Ceph: max avail: Monitoring motzt, Proxmox GUI sagt alles ok?!

    Hmm noch eine Anschlussfrage damit hoffentlich der Knopf aufgeht: Wenn 2,1 STORED ist und 1,4 MAX AVAIL, beides ohne Replica, dann müsste laut der Erklärung bei 2,1 + 1,4 = 3,5 der Pool voll sein. Wenn dann Replica (3/2) dazukommt 3,5 *3 = 10,5, aber dann fehlt ja wieder einiges zu SIZE von...
  7. F

    Ceph: max avail: Monitoring motzt, Proxmox GUI sagt alles ok?!

    Hallo Leute, mein Monitoring (check_mk) motzt weil der Speicherverbrauch meines (einzigen) pools (replication 3/2) über 80% liegt. Dieser Wert (den das Monitoring als maximalen Speicherplatz nimmt) wird errechnet aus USED und MAX AVAIL gebildet: RAW STORAGE: CLASS SIZE AVAIL...
  8. F

    vzdump status mails: invalid character encountered while parsing JSON....

    strange... I checked .version on ceph8: there was not such key attribut list of ceph8. So I went back to the problematic ceph7. There I could find that "a^V" ( or somthing like that). On ceph7 I restarted: pve-cluster, pveproxy pvedaemon and pvestatd and checked again that file. The problematic...
  9. F

    vzdump status mails: invalid character encountered while parsing JSON....

    can I send it via mail or PN? than I would not need to edit sensitive info.
  10. F

    vzdump status mails: invalid character encountered while parsing JSON....

    Hey, since 2 days the vzdump backup notification mails does't contain the normal information (which VM, time spend, size, etc.). It just showing: "invalid character encountered while parsing JSON string, at character offset 724 (before "\x{16}": 0,\n"kv/cep...") at...
  11. F

    PVE6.0-5: Corosync3 segvaults randomly on nodes

    Sure: root@vmb2:~# pveversion -v proxmox-ve: 6.0-2 (running kernel: 5.0.18-1-pve) pve-manager: 6.0-5 (running version: 6.0-5/f8a710d7) pve-kernel-5.0: 6.0-6 pve-kernel-helper: 6.0-6 pve-kernel-5.0.18-1-pve: 5.0.18-3 pve-kernel-4.15.18-20-pve: 4.15.18-46 pve-kernel-4.4.98-6-pve: 4.4.98-107...
  12. F

    PVE6.0-5: Corosync3 segvaults randomly on nodes

    +1 I have got the same problem with our corosync 3 PVE6 cluster :(
  13. F

    Ceph: gleiche Größe, gleiche weight -> warum unterschiedliche belegt?

    Laut Calc sollte ich 1024 haben und 1024 sind bei mir auch eingestellt. Muss demnächst ohnehin zusätzliche OSDs einbauen, mal schauen wie es sich nun entwickelt. Aber Danke erstmal!!
  14. F

    Ceph: gleiche Größe, gleiche weight -> warum unterschiedliche belegt?

    Hast recht, auf OSD 10 sind 66 PGs auf OSD 14 hingegen sind es 91. Aber werden die PGs nicht auch verschoben damit es Normalverteilt wird?
  15. F

    Ceph: gleiche Größe, gleiche weight -> warum unterschiedliche belegt?

    Hallo, hab auf einem Host paar SSD die gleiche Größen haben, Weight ist auch gleich, trotzdem hat eine (OSD 10) 58% Belegung und die andere (OSD 14) 80%. Wenn neue Daten geschrieben werden, passiert das genauso auf die schon fast volle, siehe Screenshot. Wieso das?? Danke Liebe Grüße, Stefan
  16. F

    get sparse space back from once filled HD?

    Well I can't enable discard via GUI. Or do you mean I should enable it via conf? Its a debian lxc ct.
  17. F

    get sparse space back from once filled HD?

    Thanks, hmm I haven't enabled discard and I am using Virtio Block too.

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!