Search results

  1. I

    Proxmox VE 8.0 released!

    rm -rf /var/lib/ceph/crash/* see https://forum.proxmox.com/threads/ceph-client-crash-once-every-10-mins-every-node-error-calling-conf_read_file.134061/#post-591716 seems to help. The crashreports are old and timestamp matches with update-date. After restart manager and monitor nothing is logged...
  2. I

    Samba-Storage deaktiviert - wird aber nicht unmounted

    Ich verstehe inzwischen den Gedanken dahinter, weswegen kein unmount erfolgt, denke aber, dass es weiter zu Verwirrungen kommen wird, solange es Aktivieren/Deaktivieren in der GUI sichtbar ist. Hat jemand einen Vorschlag, wie man am besten Images von VMs als Backupjob in ein Storage laufen...
  3. I

    Samba-Storage deaktiviert - wird aber nicht unmounted

    In der /etc/pve/storage.cfg bleibt der Mount gelistet wenn ich Ihn deaktiviere und bekommt die Zeile 'disable' mit dazu: cifs: Offline-Backup disable path /mnt/pve/Offline-Backup server foo share mnt content backup prune-backups keep-all=1...
  4. I

    Samba-Storage deaktiviert - wird aber nicht unmounted

    Für mich sind das 2 paar Schuhe. Ich kann alles, was die GUI kann und mehr auf der Konsole. Aber wofür gibt es die Funktion zum Deaktivieren des Storage, wenn das nicht das GUI-Pendant zum Unmounten ist? Den Featurerequest brauche ich nicht, da das, was du beschreibst, da ist. Die...
  5. I

    Samba-Storage deaktiviert - wird aber nicht unmounted

    Ich verstehe die Frage nicht Recht um ehrlich zu sein. Aber wenn ich ein storage in einer GUI deaktiviere, es aber unter der Haube auf Konsolenebene aktiv bleibt, dann liegt hier meiner Meinung nach ein Bug vor.
  6. I

    Samba-Storage deaktiviert - wird aber nicht unmounted

    Falk ich glaube du hast den Thread nicht ganz verstanden. Dass man nicht einfach ein Sambaziel ausschalten kann, ist ärgerlich aber wenn ich ein Samba storage deaktiviere, dann sollte es aber auch unmounted werden statt aktiv zu bleiben
  7. I

    Samba-Storage deaktiviert - wird aber nicht unmounted

    Workaround: root@foo:~# cat /etc/cron.d/samba_unmount_disabled MAILTO="" * * * * * root for CIFS_STORAGE in $(grep -E '^cifs:' /etc/pve/storage.cfg | cut -d ' ' -f 2); do if grep "cifs: ${CIFS_STORAGE}" /etc/pve/storage.cfg -A 1 | tail -n 1 | grep disable -q && mount | grep...
  8. I

    Samba-Storage deaktiviert - wird aber nicht unmounted

    Hallo zusammen, wenn ich ich Storage vom Typ Samba anlege - alles funktioniert - erhalte ich folgenden Fehler von systemd-timesyncd, sobald der Samba-Server aus ist: Apr 19 09:15:34 foo systemd[1]: Starting Time & Date Service... Apr 19 09:15:44 foo systemd[145027]: systemd-timedated.service...
  9. I

    Installation auf Nuc schlägt fehl / CPU Stuck

    Ich hatte das Problem mit Ubuntu schon auf mehreren Rechnern. Ursache war ein mal ein defekter eMMC-Speicher und sonst immer ein zu alter Kernel. Bei Ubuntu gibt es dafür den HWE-Stack, welcher neuere Kernel einbindet, die dafür aber kein LTS-Release sind.
  10. I

    Proxmox V7.1-10 systemd-timedated.service failed 226/Namespace

    In my case it's because of an SMB-storage for offline backups which causes the error if the endpoint of the mount is not available when it's offline
  11. I

    Proxmox V7.1-10 systemd-timedated.service failed 226/Namespace

    ah ok, thanks we switch global to systemd-timesyncd some years ago i'll try to fix it by myself
  12. I

    Corosync Quorum weg, nachdem 1/3 Hosts neustartete

    Warum sollte die MTU am Switch größer sein müssen als die der Server? Standard ist ja 1500 (so also auch am Switch und bei Debian) - also auch gleich. Ping läuft überall sauber durch, wenn alle bond01 auf 10G sind, je ein Host auf 1G ist oder alle auf 1G sind; Beispiel: root@is-master-25:~#...
  13. I

    Corosync Quorum weg, nachdem 1/3 Hosts neustartete

    Die MTU ist inzwischen bei 9000. Das habe ich bei den Servern und auch bei dem Switch der Fallbacknetze umgestellt. Der Switch der Primärnetze ist unmanaged. Ich habe die Tests soeben durchgeführt. Ich habe mich erst an das bond1 (Ceph-Backend) per echo enp67s0f0 >...
  14. I

    Corosync Quorum weg, nachdem 1/3 Hosts neustartete

    Du hast Recht, dass die MTU max. 9000 sein sollte (https://en.wikipedia.org/wiki/Jumbo_frame). Das war mir bisher nicht bekannt. Ich stelle das entsprechend um und teste noch mal die Fallbacklösung. Was mich stutzig macht, ist, dass Netzwerkprobleme als Ursache nur Sinn ergeben, wenn der eine...
  15. I

    Corosync Quorum weg, nachdem 1/3 Hosts neustartete

    Corosync läuft über das "Primärnetz" mit, welches ich oben als "Proxmox-GUI und Ceph-Frontend" bezeichnet habe. Demnach greifen die Jumboframes auch für Corosync. Stellt das ein Problem dar? Die Failover-Tests führe ich noch mal aus. Ggf. dauert das etwas, da das im laufenden Betrieb tagsüber...
  16. I

    Corosync Quorum weg, nachdem 1/3 Hosts neustartete

    Alle 3 Server haben jeweils 4x10Gb und 4x 1Gb wovon jeweils 3 pro Server genutzt werden. Jeweils 1x 10G und 1x 1G sind als Bond (active/backup) konfiguriert und dienen als: - Proxmox-GUI und Ceph-Frontend - Ceph-Backend - Interface für VM-Bridge Bei den 3 10G-Netzen ist jeweils ein unmanaged...
  17. I

    Corosync Quorum weg, nachdem 1/3 Hosts neustartete

    Einer von 3 Servern ('server-02') im Cluster wurde durch Watchdog neugestartet. Die Ursache wird aktuell noch untersucht. Kurz danach sind die beiden übrigen Server aber ebenfalls neugestartet. Feb 13 04:22:28 server-01 corosync[2282]: [QUORUM] Sync members[2]: 4 6 Feb 13 04:22:28 server-01...
  18. I

    [SOLVED] Cluster-Ausfall - VMs nicht erreichbar

    Ich glaube, den Fehler gefunden zu haben. Zumindest konnte ich die Logeinträge und auch einen gelegentlichen Neustart durch den Watchdog nachstellen. Ursächlich ist mutmaßlich Nagios, welches die Abfragen per SSH absetzt. Ich hatte, damit die Abfragen unter Last noch sauber funktionieren und...
  19. I

    [SOLVED] Cluster-Ausfall - VMs nicht erreichbar

    Den zeitlichen Ablauf von Ceph-Fehlern konnte ich inzwischen auch rekonstruieren. 1. mehrere slow ops für 30 Minuten (ab 23:29) 2. "Long heartbeat ping times" auf back und fron interface für 53 Minuten 3. Monitor 1 down, dann Monitor 3 down, Monitor 1 down, dann Monitor 3 down (1:06 - 1:23) 4...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!