Search results

  1. J

    systemd-logind (war pve-ha-lrm crash)

    Wie ich feststellen musste, klemmen bei Ausfall des systemd-logind.service nicht nur die ssh Connects, es klappt auch keine Migration vom/zum Proxmox-Server. Ich vermute hier auch den hohen Timeout. Nachdem ich keine andere Lösung gefunden habe, habe ich das Ding einfach deaktiviert (systemctl...
  2. J

    systemd-logind (war pve-ha-lrm crash)

    Tja schade, das Problem taucht nun doch wieder auf: ich habe ewig lange Antwortzeiten beim anmelden auf einem Proxmox-Server. Im Syslog kann man dann lesen das der systemd-logind.service einen weg hat: Sep 14 15:33:37 prx4 systemd[1]: systemd-logind.service: Unit entered failed state. Sep 14...
  3. J

    systemd-logind (war pve-ha-lrm crash)

    aktueller Status: Problematik scheint hat sich mit den aktuellen Updates gelöst zu haben ...
  4. J

    [SOLVED] Kernel 4.10.17-3-pve warning

    Problem scheint gelöst: gro, lro, und sg auf "off" muss man im Container setzen und nicht auf dem Proxmox-Sever, dann klappts auch ;)
  5. J

    [SOLVED] Kernel 4.10.17-3-pve warning

    bei setzen mit ethtool -K ... war ich auch gereade :) aber gro, lro bzw. sg auf "off" zu setzen unterbindet die kernelmeldung/ / den fehler nicht. auserdem die frage, was für ein karte ist es den ? ich habe zwei onboard, und zwei dual karten, alle mit dem r8169 geladen :(
  6. J

    [SOLVED] Kernel 4.10.17-3-pve warning

    Das ist ein 0-8-15 Asus Mainboad (ok, ein etwas besseres schon), mir ist nicht bekannt das es dafür extra Treiber gibt. Jedes mal beim booten an der Konsole beim booten den Kernel ändern ist auch kein Lösung. Dann schon den Bootkernel anpassen. Frage wäre dann, ob sich alle anderen neueren...
  7. J

    [SOLVED] Kernel 4.10.17-3-pve warning

    Hallo, nach dem Wechsel auf die aktuellen Updates: proxmox-ve: 5.0-21 (running kernel: 4.10.17-3-pve) pve-manager: 5.0-31 (running version: 5.0-31/27769b1f) pve-kernel-4.10.17-2-pve: 4.10.17-20 pve-kernel-4.10.17-3-pve: 4.10.17-21 libpve-http-server-perl: 2.0-6 lvm2: 2.02.168-pve3 corosync...
  8. J

    systemd-logind (war pve-ha-lrm crash)

    UPS! Nachdem sich der systemd-logind.servie eingestellt hat, läuft zwar scheinbar alles weiter (außer das ein Login auf dem Proxmox-Server sehr lange dauert), aber dem ist wohl doch nicht so. Ich wollte jetzt mal einen LXC (HA) von einem Proxmox-Server auf dem anderen migrieren und bekomme so...
  9. J

    Probelm Mit Network seit updaten von Debian9

    Hey, ich würde mal behaupten, dass Du bei den eth0:x Interfacen das: netmask 255.255.255.128 pointopoint 146.0.32.167 gateway 146.0.32.167 nameserver 62.141.32.3 nameserver 62.141.32.4 nameserver 62.141.32.5 weg lassen kannst, schreib da einfach nur "netmask 255.255.255.255" hin. MfGF.Jörg
  10. J

    zfs fehler ?

    Die Meldung taucht im syslog auf. und ja, scheint als funktioniert alles.
  11. J

    zfs fehler ?

    ja, schon klar. die frage was genau möchte proxmox da jetzt haben ? datasets gibt es ja viele ... : NAME USED AVAIL REFER MOUNTPOINT rpool 169G 1.59T 96K /rpool rpool/ROOT 1.58G 1.59T 96K /rpool/ROOT...
  12. J

    systemd-logind (war pve-ha-lrm crash)

    Ich habe mal noch etwas weiter gesucht. Scheint nicht der pve-ha-lrm zu sein, der kann wohl nur nicht mehr, weil der systemd-logind.service klemmt. bevor der anfängt zu spucken, passiert immer so was (nach einem ssh-logout): Sep 8 10:28:16 prx4 sshd[4135]: pam_unix(sshd:session): session...
  13. J

    zfs fehler ?

    mmmh.was genau muss den da bei "ZFS Pool" angegeben werden wenn nicht "rpool/data" ? nur "rpool" ??
  14. J

    zfs fehler ?

    bitteschön: pvesm status Name Type Status Total Used Available % data-back dir active 3905109820 2657182820 1247927000 68.04% dataraid dir active 9666508928 6772410752 2893979392 70.06%...
  15. J

    zfs fehler ?

    storage.conf: dir: data-back path /mnt/data-back content backup maxfiles 7 nodes prx4,prx1,prx2 shared 0 dir: dataraid path /mnt/data-raid content backup,rootdir,images maxfiles 7 shared 1 zfspool: zfs-local pool...
  16. J

    systemd-logind (war pve-ha-lrm crash)

    Hallo, ab und an bekomme ich die nachfolgende Meldung. in folge läuft zwar alles weiter, der proxmo-server braucht jedoch Ewigkeiten bis ich eine Konsole oder ein Login auf der Shell (ssh) bekomme. Abhilfe bekomme ich nur durch einen Reboot. nervig. hat jemand Vorschläge woher das kommt und wie...
  17. J

    zfs fehler ?

    Hallo, hier scheint irgendwas wohl nicht zu stimmen: der proxmox meint: could not activate storage 'zfs-local', zfs error: use the form 'zpool import <pool | id> <newpool>' to give it a new name Ich kann jedoch auf den zfs-local storage zugreifen, images ablegen, backup machen usw...
  18. J

    Proxmox Cluster 4.4 & 5.0 mix?

    Hi Chris, ich habe meine 4'er auf 5'er umgestellt und zeitweise beide im Mix gefahren. Geht prinzpiell würde ich sagen, wenn man von diversen kleinen fehlermeldungen von verschiedenen perlmodulen einmal absieht ;) MfG Jörg
  19. J

    lxc nfs mount

    ahja ... habe mal noch ein shared=1 hinten dran gehangen, jetzt klappts mit der migration auch ...
  20. J

    lxc nfs mount

    Aehm: task started by HA resource agent 2017-09-05 14:46:44 ERROR: migration aborted (duration 00:00:00): cannot migrate local bind mount point 'mp0' TASK ERROR: migration aborted hatte ich da jetzt was übersehen? der nfs-mount auf den host-nodes ist ueberall gleich ...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!