Search results

  1. B

    USB Platten fliegen unregelmäßig weg

    Wenn ich den an den gleichen Anschluss hänge, wie die aktuelle SSD (m.2SSD, keine Sata), habe ich doch das gleiche Problem. Ob da nun eine Externe M.2 SSD oder Sata SSD dran hängt macht ja so erstmal keinen Unterschied. Wenn ich nach deinem Suchbegriff suche, finde ich das Gleiche, was ich...
  2. B

    USB Platten fliegen unregelmäßig weg

    Moin, ich habe hier ein kleines bis großes Problem. Ich habe an meinen Nodes eine interne Platte, eine interne Platte für VM Daten und eine USB 3.2 Gen 1 Platte über USB-C für Backups und gelegentlich auch VMs, die größer sind als die VM Platte hergibt (Leider sind die nicht alle gleich groß)...
  3. B

    [SOLVED] Node goes offline

    Solved. Solution: https://forum.proxmox.com/threads/upgrade-to-8-0-causes-netdev-watchdog-enp6s0-igc-transmit-queue-0-timed-out.130415/#post-573718
  4. B

    Upgrade to 8.0 causes "NETDEV WATCHDOG: enp6s0 (igc): transmit queue 0 timed out"

    I think this is the Solution. No Problem after Change:
  5. B

    Upgrade to 8.0 causes "NETDEV WATCHDOG: enp6s0 (igc): transmit queue 0 timed out"

    UPDATE: Testnode went Offline Not accessable via Network. No Signal on Monitore. Log between 23.07. and 24.07. reboot Jul 24 08:50:37 N-4 pvestatd[836]: storage 'Backup' is not online Jul 24 08:50:37 N-4 pvestatd[836]: status update time (10.219 seconds) Jul 24 08:50:47 N-4 pvestatd[836]...
  6. B

    Upgrade to 8.0 causes "NETDEV WATCHDOG: enp6s0 (igc): transmit queue 0 timed out"

    At the moment my Testnode on V8 run fine. Its a fresh install with updates, without any changes like Kernel. I add this Node now to my V7.4 Cluster to test.
  7. B

    [SOLVED] Replication fail with empty target Storage "out of Space"

    Here are the Settings. All Disks has the same Settings. NAME PROPERTY VALUE SOURCE ZFS-01/vm-132-disk-3 type volume - ZFS-01/vm-132-disk-3 creation Tue Jul 11 22:54 2023 - ZFS-01/vm-132-disk-3 used...
  8. B

    [SOLVED] Replication fail with empty target Storage "out of Space"

    Target N-1 at the Moment: root@N-1:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT ZFS-01 323G 576G 96K /ZFS-01 ZFS-01/vm-131-disk-0 13.1G 587G...
  9. B

    [SOLVED] Replication fail with empty target Storage "out of Space"

    Hi, i have a problem. i want to replicate a Server wirh multiple HDDs. If i enable Replication to another Node i get "out of Space" Error. 2023-07-21 14:04:06 132-0: start replication job 2023-07-21 14:04:07 132-0: guest => VM 132, running => 1906 2023-07-21 14:04:07 132-0: volumes =>...
  10. B

    Proxmox und Truenas

    Ich habe bereits ein 3 Node Cluster, bald wohl ein 4 Node Cluster und ich hatte überlegt, in welcher Form dann final auch immer, das NAS als Notfall Node mit einzubinden in das cluster für bestimmte Vms, damit diese auch laufen, wenn mein Cluster sich mal zerlegt, warum auch immer. Kann ja die...
  11. B

    Proxmox und Truenas

    Moin, ich habe mal eine Frage und brauche dazu ein paar Eindrücke, vllt sogar Erfahrungen. Ich habe ein gelbst gebautes NAS, welches ich mit Truenas betreibe. Da habe ich noch eine ecke Ressourcen übrig und überlege, ob ich Proxmox mit drauf lege. Die Frage, die ich mir da stelle ist, wie...
  12. B

    Upgrade to 8.0 causes "NETDEV WATCHDOG: enp6s0 (igc): transmit queue 0 timed out"

    I went back to 7.4 with my productive Nodes. I will setup this week a testnode.
  13. B

    Upgrade to 8.0 causes "NETDEV WATCHDOG: enp6s0 (igc): transmit queue 0 timed out"

    I have the same Problem: https://forum.proxmox.com/threads/node-goes-offline.130467/ At the moment no Solution.
  14. B

    [SOLVED] Node goes offline

    Hi, i have a 3 Node Cluster (new Installation with newest Kernel "Linux 6.2.16-4-pve #1 SMP PREEMPT_DYNAMIC PVE 6.2.16-4 (2023-07-07T04:22Z)". One of the Nodes (N-2) went offline 4 Times today (Today installed Cluster and Nodes). I see corosync log trouble, but i no have an idea, how to...
  15. B

    [SOLVED] Nach Upgrade auf Proxmox 8 Probleme

    Moin, ich konnte nun den ganzen Absturzt/Neustart Sturm beruhigen, indem ich die SSH Einstellungen zurückgestellt habe: /etc/ssh/sshd_config -> If you have not changed this file manually, the only differences should be a replacement of ChallengeResponseAuthentication no with...
  16. B

    [SOLVED] Nach Upgrade auf Proxmox 8 Probleme

    So nach Entfernung aller Replikationen vom Master und dann langsamen Hochfahren der anderen Nodes einzeln hauen 2 Nodes immer noch Retransmit Logs raus, aber bisher starten sie nicht mehr neu. VMs sind an. Scheint also erstmal zu laufen, wenn auch alles extrem langsam (sehe nur noch kb/s...
  17. B

    [SOLVED] Nach Upgrade auf Proxmox 8 Probleme

    Update: Kaum mach ich N-4 an, laufen N-3 und 4 eine kurze Weile, fahren ihre VMs hoch und schwups, ist N-3 weg. Syslog N-3: Jul 10 20:00:54 N-3 pvedaemon[1697]: <root@pam> successful auth for user 'root@pam' Jul 10 20:00:55 N-3 nfsrahead[1845]: setting /mnt/pve/Backup readahead to 128 Jul 10...
  18. B

    [SOLVED] Nach Upgrade auf Proxmox 8 Probleme

    Moin, ich habe gerade mein 3 Node Cluster auf V8 hochgezogen. leider habe ich nun immer Probleme. Kann diese nicht ganz erklären. Gefühlt starten derzeit ständig die Server neu oder verlieren die Verbindung zueinander. Das hier passiert in den Logs jedes Nodes: Jul 10 19:34:38 N-2...
  19. B

    [SOLVED] VM Backup beschädigt - Vorhandene Disks in andere VM einbinden wie?

    Hi, bin da nun einen ganz anderen Weg gegangen. Hab die VM aus einem Backup geholt mit anderer ID, die restorten alten Platten entfernt, ein backup gemacht und dann unter der 305 wiederhergestellt, damit die Platten erkannt werden. Hat auch geklappt, auch wenn das ein paar Stunden gedauert hat...
  20. B

    [SOLVED] VM Backup beschädigt - Vorhandene Disks in andere VM einbinden wie?

    Ich kann die Disks nicht umbennenen, da ich nicht an den Pfad komme. In der Webgui kann ich die Disks nur entfernen. Wenn ich in der Shell eines Nodes nach der Datei suche, finde ich sie nicht. Auf dem Datenspeicher selbst kann ich nur die LUN sehen, nicht aber den Inhalt.