Proxmox stürzt nach wenigen stunden ab.

Dann hast du den Link von vorhin nicht aufmerksam gelesen:
Führen Sie die Aktionen über die Konsole oder ssh aus; vorzugsweise über die Konsole, um unterbrochene ssh-Verbindungen zu vermeiden. Führen Sie das Upgrade nicht durch, wenn Sie über die von der GUI angebotene virtuelle Konsole verbunden sind; da dies während des Upgrades unterbrochen wird.

Lass am besten nochmal ein apt update && apt full-upgrade drüberlaufen. Wenn dann apt nicht mehr meckert und keine aktualisierungen mehr findet, dann ist das Upgrade wohl durch.
 
Last edited:
Ich habe in den letzen 4 Stunden schon so viel gelesen das ich das wohl überlesen habe. Ich habe jetzt nochmal Update und Upgrade gemacht und es sind keine Updates mehr verfügbar. TOP. Danke euch für eure unterstüzung!

edit: zu früh gefreut. Die VMs lassen sich nicht mehr starten.
 

Attachments

  • Start.PNG
    Start.PNG
    28.6 KB · Views: 12
  • VM111.PNG
    VM111.PNG
    19 KB · Views: 11
  • CT102.PNG
    CT102.PNG
    17.1 KB · Views: 9
Last edited:
Da solltest du mal googlen ob dein Netzwerkkarten-Chipsatz irgendwie Probleme mit dem Treiber aus dem 5.13 Kernel hat, wenn das mit 5.11 noch lief.
 
Last edited:
Der Netzwerk chip ist ein RTL8111G. Ich komme ja auf das Webinterface von PVE drauf also scheint der Treiber für die Netzwerkkarte ja zu funktionieren. Über Google kann ich jetzt auch nichts finden über Probleme mit dem Chip und dem Kernel 5.13. Beim Upgrade von PVE6 auf PVE 7 kam einmal die Meldung das PVE7 das Netzwerk anders Managed. Ich hab mir dabei nichts gedacht. Jetzt habe ich das Problem das mir die Zeit weg läuft. Das System muss wieder laufen. Das Ganze Haus ist tot weil das Smart Home auch über den Server läuft.
 
Ich habe nach dem Upgrade auch ein Reboot gemacht. Das mache ich immer. Jetzt habe ich den Server mal komplett aus geschaltet und ein paar Minuten gewartet. Beim Start vorgang kam eine Fail Meldung das er ein ZFS Pool nicht einpinden konnte. Das war eine SSD welche ich mal drin hatte. Die habe ich letze Woche entfernt und habe im Webinterface unter Disks -> ZFS gelöscht und per SSH zpool destroy SSD120G Das hat scheinbar nicht gereicht. Jetzt starten zumindest die VMs wieder.
 
Last edited:
Hallo community,

mein PVE macht wieder probleme und ich kann leider nicht erkennen wo die Fehler genau liegen. Ich kann da immer nur Bruchstücke erkennen. Einerseitz steht da das die vmbr1 deaktiviert ist. Das kann aber nicht stimmen denn dann könnte ich nicht auf das Gui zugreifen. In dem Syslog steht cannon open Raid0. Das kann auch nicht stimmen denn es ist offen. Die Vms schreiben permanet drauf. Dort steht ausserdem Smart fehler sdd. Die sdd habe ich erst vor kurzem dem Raid0 hinzugefügt. Was mir aufgefallen ist das mein LXC mit Motioneye nicht mehr funtkioniert. Die Weboberfläche ist nicht mehr erreichbar. Ich kann mir aber nicht vorstellen das der LXC die Uhrsache für alle fehler ist. Kann mir bitte Jemand helfen die Fehler auseinander zu klabüstern?

Grüße Marcel
 

Attachments

  • syslog.PNG
    syslog.PNG
    129.9 KB · Views: 7
  • dmesq.PNG
    dmesq.PNG
    177.5 KB · Views: 7
  • 20220108_102719.jpg
    20220108_102719.jpg
    804.5 KB · Views: 7
Für mich sieht das nach Diskfehler aus. Und ja, eine VM oder Container kann das gesamte System beeinträchtigen wenn die immer wieder versucht einen defekten Block zu lesen. Da stehen immer alle I/Os in der Warteschlange, was bei mehreren Leseversuchen und warten auf Timeouts, alles so bremst, dass keiner arbeiten kann.
 
Kann denn der Disk Fehler die Ursache für alle Fehlermeldungen sein? Gibt es in Proxmox die möglichkeit die festplatte zu testen?
 
Last edited:
Ich habe aktuell 4 Disks im server als Raid0. Ich hatte früher mal 5 Disks als Raid5 verbund am laufen unter Freenas aber hatte probleme das der Pool degraded war. Scheinbar ist tatsächlich eine Festplatte defekt. und zwar die sdd die ich erst vor kurzem nachgesteckt habe. Dann bleibt mir wohl nichts anderes über als das Raid0 aufzulösen. Ich habe jetzt 4x3TB drin und würde jetzt auf 2x8TB wechseln. Ich hoffe das die Schreib und lese Performance nicht all zu sehr leidet.

edit: was mich aber dennoch wundert, warum steht im Log vmbr1 dissable state?
 
Last edited:
Raid 1 und raid 10 würde ich nicht nehmen da Speicherplatz aktuell sehr teuer ist und ich die Daten die auf den Fesplatten geschrieben werden nicht unbedingt brauche. Dort sind hauptsächlich Videodaten der Videoanlage gespeichert. Ein paar Test vms laufen dort auch drauf aber die haben auch ein Backup auf dem PBS. Läuft denn ein Raid0 prinzipiell problemlos auf Proxmox?
 
Warum sagt das Log denn das eine Festplatte fehler hat aber der Status sagt das keine Fehler bekannt sind?

edit: Hab soeben mal die Console von Zoneminder geöffnet. Das ist die Software die über 50% des Raid0 belegt. Da ist scheinbar das problem. Wenn ich das richtig deute dann treten da Schreibfehler auf. richtig?
 

Attachments

  • Raid0.PNG
    Raid0.PNG
    44.8 KB · Views: 5
  • Zoneminder.PNG
    Zoneminder.PNG
    100.7 KB · Views: 5
Last edited:
Raid0 ist normalerweise kein Problem. Wenn jetzt aber nur ein Sektor der Platte defekt ist, hat SMART erst mal kein Problem damit. Kann ja passieren.
Bei einem Raid1 oder andere außer 0 könnte er den Block ja wiederholen von einer anderen Disk.
Wenn der Block aber von deiner Software benötigt, dann wird immer wieder auf den defekten Block zugegriffen, mit allen Folgeerscheinungen. Wenn du die betroffene Datei identifizieren kannst, diese löschst und neu drauf kopierst, sollte alles wieder gehen.
 
  • Like
Reactions: Solarstorm
Ich habe jetzt 4 Festplatten als ZFS Raid 0 Vebund am laufen. Die 4. Festplatte ist defekt. Wie kann ich diese nun aus dem Raid Verbund entfernen? Mir ist klar das die Daten verloren sind aber das ist nicht schlimm.
 
Danke, wie ist denn die genaue Reihenfolge? Ich hatte mal eine SSD eingebunden und sie später wieder gelöscht. Wenn ich den Server neu starte, steht da aber immer noch failed to mount SSD. Also habe ich es scheinbar nicht richtig gemacht oder in der falschen reihenfolge
 
Erstmal unter Datacenter -> Storage -> DeinZfsPool -> Edit den ZFS Pool deaktivieren oder gleich ganz entfernen. Machst du das nicht wird PVE immer wieder versuchen den Pool automatisch zu importieren.
Danach kannst du den Pool über die CLI mit zpool destroy DeinPool zerstören oder über zpool export DeinPool exportieren.
Danach die Disks wipen (geht auch über die WebUI), da das WebUI dich nur unpartitionierte Disks für einen neuen Pool nutzen lässt.
Dann am besten auch noch den Ordner löschen, indem dein früherer Pool gemountet wurde (sonst kannst du z.B. einen neuen Pool mit dem gleichen Namen erstellen).
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!