Kann dein Qnap Container? Habe mein PBS auf einem Debian Container auf dem Qnap erstellt. Dann den Mount Punkt durch gerecht und als Storage das Verzeichnis angegeben. Funktioniert wunderbar.
Kann nur für meine Tests sprechen, mit SATA HDDs habe ich kein ZFS getestet. Ich habe 4k Blocksize Platten und damit ashift auf 12.
Gemäß diverser Posts im Internet sollte man bei 512 Byte Platten auch das ashift entsprechend setzen. Aber ich glaube kaum das dadurch der I/O Delay und die Load...
Habe ich bei Tests auch rausgefunden und zwar weil du einfach die komplette Geschwindigkeit nutzt die verfügbar ist. Ich hatte hier ein Raid 10 aus 8x PM883 mit 960GB. Super schnell bis einfach die Geschwindigkeit ausgereizt war. Es kam dann zu hoher Load sowie I/O Wait.
Ergebnis aus dieser...
Genau dieses Problem hatte ich auch, aber nicht nur bei Windows 2012er Servern.
Wenn ihr mal auf dem Hostsystem per "fdisk" schaut werdet ihr wohl leider feststellen, dass eure Partitionstabellen einfach mal weg sind.
Hier hilft dann nur Datenrettung per Testdisk etc sowie Backup Restore.
Werde ich dann alles mal durch testen. Ich installiere nun erstmal Node1 neu und baue auch gleich mal den Cluster neu auf. Sollte es doch weiterhin Probleme geben erstelle ich einen neuen Thread.
Windows Repair scheitert aufgrund der fehlenden MTF leider auch, findet nicht mal eine vorhandene Installation.
Dann bleibt wohl leider nur Desaster Recovery.
Ich bin am Überlegen vom Raid Controller weg zu ZFS zu wechseln. Da ich aber nur 8 Einschübe haben brauche ich bei 8x Samsung PM863a...
Hier die fio Ergebnisse:
Die Syslog ist ohne Fehler, ich habe mir die letzten 48 Stunden vor Ausfall angeschaut.
Besteht eine Möglichkeit an die Partitionsinformationen wieder ran zu kommen? Per Live CD und Testdisk sind diese in der VM ersichtlich. Es fehlen aber alle Informationen zu Typ...
Identische Hardware, Supermicro Sys 1029U TR4, 2x Xeon Gold 6130, 256 GB RAM, Supermicro 3108 RAID Controller, 8x Samsung Enterprise SSD im RAID 10 und LVM Thin Pool. 0 IO Delay, 10-15% CPU Last und eine load von 2.
Bisher betroffen waren alle VMs von Node1. Alle VMs die noch nicht gecrasht waren habe ich per live Migration auf Node2 geschoben. Allerdings scheinbar mit der Problematik, denn ein Crash dieser VMs fand nachträglich auch statt.
Leider habe ich nun bei einer Überprüfung einer weiteren VM die von...
Die VMs hatten jeweils aktuelle Patch Stände und wurden auch durch die Windows Updates generell immer ohne Probleme neu gestartet.
Frisch dazu gekommen ist auch eine Windows 10 VM (auch aktueller Patch stand) die ich per live Migration weg geschoben habe. Ich hatte anfangs vermutet die Hardware...
Ok den Wald vor lauter Bäumen nicht gefunden. Da waren doch 2 Tasks vorher in dem eine geladene ISO nicht auf dem lokalen Storage vorhanden ist. So wurden dann die 4 leeren Disks angelegt. Obwohl diese aber eigentlich in der VM Konfiguration nicht zugewiesen sind weigert sich die GUI diese zu...
Nein die Migration ist direkt und ohne Fehler beim ersten Versuch durchgelaufen. Kann das irgendwie durch Arbeiten auf der VM während der Migration. Dafür ist ja eigentlich die live Migration gut.
Hier der Stand der Disks:
lrwxrwxrwx 1 root root 10 Sep 25 08:44 vm-108-disk-0 -> ../../zd48...
Guten Morgen,
aktuell ist ein nicht aktuelles PVE 5.3.6 im Einsatz, Update steht auf der ToDo.
Ich hatte nun ein sehr seltsames Phänomen: Im Abstand von 2-3 Stunden hatten 3 Windows Server VMs (2012, 2016 und 2019) einen Bluescreen (Memory Allocated) und booteten anschließend nicht mehr...
Guten Morgen,
nach live Migration einer VM basierend auf einem LVM Pool auf eine Node mit ZFS habe ich nun alle Disks 3x auf dem ZFS Pool wobei gemäß VM Konfiguration nur die letzten beiden ZFS Volumes genutzt werden. Ja ich weiß ein PVE 5.3.6 ist nicht aktuell, das ist auf der ToDo. Aber ist...
Ich mache sowas immer per Backup und Restore, weil einfach absolut alle notwendigen Sachen da drin sind. Bei der kopier Variante stellten sich immer mal Probleme dar.
Normalerweise würde ich auf sowas gar nicht antworten. Der Fehler ist doch im ersten Quote ersichtlich. Und wenn man die Parameter nicht kennt googelt man danach und „aha“: da muss der Host des Mail Servers rein über den man raus schicken möchte.
Und anstatt einfach aus einer Anleitung...
https://www.howtoforge.com/postfix_relaying_through_another_mailserver
Was ist so schwer daran diese paar Befehle zu kopieren und nur die eigenen Daten ein zu tragen? Das war nicht mal 1 Minute Google Suche.
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.