Search results

  1. J

    ZFS entfernen

    Wir treffen uns irgendwo in der Mitte :) Es hiess doch - 62% bei 40TB Einsparung - das scheint ja der Vorteil vom ZFS zu sein. Daher mein Vergleich RAM vs SSD. Einen anderen sehe nicht. Mal abgesehen von Backups, Replikation und Snapshots, die man doch lieber auf dem RAID/NFS macht.
  2. J

    ZFS entfernen

    ok, dann rechnen wir mal bei 50% Komprimierung: 250GB RAM vs 500GB Enterprise SSD ... mmh, irgendwas mache ich falsch.
  3. J

    ZFS entfernen

    Ups, meine Mathekünste versagen. 32GB RAM ~ 300€ vs 64GB SSD ~150€ (und das ich weniger CPU brauche. mmh.)
  4. J

    ZFS entfernen

    Alle Dinge die ich brauche liegen auf dem NFS, lokal (auf dem Proxmox) habe ich nur das Betriebssystem. (System-) Logfiles gibt es auch keine, die werden zentral remote geschrieben. Insofern ist das Proxmox FS erstmal egal, da auch keine hohe I/O vorhanden ist. Seit dem wir Proxmox5 und ZFS...
  5. J

    ZFS entfernen

    Ich möchte gern auf meinen Proxmox-Nodes das ZFS raus werfen und das gute alte XFS wieder aktivieren. Am einfachsten wäre ja eine Neuinstalltion und dann /etc/* wieder drauf kopieren ... Da ich aber gern lvm mit md wieder hätte, scheidet die Proxmox-Default-Installation ja aus, die kann das...
  6. J

    pve-ha-lrm I/O Wait ...

    Push - gibt es Neuigkeiten zum Thema? Ich habe leider nur begrenzte Möglichkeiten auf dem produktiven Cluster zu testen. Gedanke: Vermutlich ist ja der Speicherbedarf des ZFS die Ursache (ohne ZFS treten bei einem Kollegen keinerlei Probleme auf), obwohl der in der zfs.conf limitiert ist...
  7. J

    pve-ha-lrm I/O Wait ...

    sieht soweit passend aus. und limitiert ist auch (das funktioniert dann wohl mal gar nicht?): cat /etc/modprobe.d/zfs.conf options zfs zfs_arc_min=2147483648 options zfs zfs_arc_max=4294967296
  8. J

    pve-ha-lrm I/O Wait ...

    swap ist auf /dev/zvol/rpool/swap, mit der default installtion. das zfs liegt auf einem raid10 mit nsata disks.
  9. J

    pve-ha-lrm I/O Wait ...

    Gestern Update und heute nochmal das ganze. Kern.log und pveversion anbei. Nachtrag: mal noch wunschgemäß ein atop dazu ...
  10. J

    pve-ha-lrm I/O Wait ...

    Ist gibt maximal eine Zabbix Grafik (siehe Anhang) Etwas aktuelleres als Linux prx1 4.13.13-6-pve #1 SMP PVE 4.13.13-41 (Wed, 21 Feb 2018 10:07:54 +0100) x86_64 gibt es nicht via Update.
  11. J

    pve-ha-lrm I/O Wait ...

    Das proxmox-backup ist heute morgen durch gelaufen (I/O wieder unten), das lokale Backup (Backup-Files vom NFS auf eine normale SATA-Disk im Proxmox-Server auf der xfs läuft), bringt meinen Freund den pve-ha-lrm wieder in den Status "D". Kernel-Trace (ist das so ok?) und pveversion anbei.
  12. J

    pve-ha-lrm I/O Wait ...

    Das Problem besteht ja schon seit xxx Kernelversionen vorher ... ich tausche aber mal und teste morgen früh nochmal.
  13. J

    pve-ha-lrm I/O Wait ...

    Traces kann ich leider keine mehr anlegen, da das system gebootet wurde, es muss ja laufen.
  14. J

    pve-ha-lrm I/O Wait ...

    Ich habe auf zum Test auf einem Prx-Server wieder alle Systeme in den HA-Modus verstetzt, Ergebnis ist bekannt I/O bleibt nach dem morgendlichen Backup wieder auf 15 stehen ... Backup prx1 start 00:15 / ende 03:00 Backup prx2 start 00:15 / ende 02:29 Backup prx3 start 00:15 / ende 01:25 Backup...
  15. J

    pve-ha-lrm I/O Wait ...

    Man sollte sich vielleicht mal die Mühe machen den Beitrag von Anfang an zu lesen - ich habe kein HA mehr aktiv, da ich ein System brauche das funktioniert. Demnach habe ich keine Logs und kann ich auch nichts mehr testen.
  16. J

    pve-ha-lrm I/O Wait ...

    I can confirm that behavior on my Proxmox cluster is the same. In addition, there are still the problems with the unused bandwidth in the Network.
  17. J

    pve-ha-lrm I/O Wait ...

    ich vermute irgendein problem mit dem netzwerk oder mit der speicherverwaltung. letzters sehe ich bevorzugt im zusammenhang mit zfs (was ich für das os verwenden muss, da die proxmoxinstallation sonst kein raid zulässt).
  18. J

    pve-ha-lrm I/O Wait ...

    es ist kein ceph im einsatz, auch gibt es keine fehlermeldungen für filesystem, netzwerk, speicher oä.
  19. J

    ntdp im lxc

    Der Wechsel zu unprivileged geht ja soweit ich weis nur über restore ... restore bringt aber nur fehlermeldungen: pvedaemon[29612]: <root@pam> end task UPID:prx2:00003640:02A832D3:5A7D8240:vzrestore:20123:root@pam: command 'lxc-usernsexec -m u:0:100000:65536 -m g:0:100000:65536 -- tar xpf...
  20. J

    ntdp im lxc

    Bitteschön: pct config 20111 arch: amd64 cpulimit: 1 hostname: xxxx memory: 2048 mp0: /mnt/pve/data-bak/20111,mp=/mnt/pve/data-bak,shared=1 net0: bridge=vmbr0,gw=x.x.x.x,hwaddr=62:63:66:34:61:61,ip=x.x.x.x/24,name=eth0,type=veth onboot: 1 ostype: debian rootfs...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!