wenn zfs dann:
a) enterprise SSD
b) enterprise SSD
c) enterprise SSD
d) wegen mir auch gebrauchte enterprise SSD von ebay
zur not lieber sata als nvme (meistens eh Random-IO kein serieller) - ergo kaum unterschied.
wenn consumer-ssds dann ext4 oder xfs.
und Backup+Backup+ExternesBackup +...
You could try to move your important Data to the Shared Storage and replicate the unimportant disk between the Hosts via zfs replica
you should disable Replikation flag in your shared storage disk
Never tried this before. Good Luck :)
Vermute mal das die ZFS als Dateisystem hast? Kopieren wirst du vermutlich via SMB? Das heisst du kopierst erstmal in den Cache und beim Wegschreiben (deine 99% Anzeige) dauert es dann. Bis die SSD das wegpackt.
Du könntest mal einen ZFS TRIM auf dem Zpool durchführen - vermutlich hast du hohe...
Hi,
Grundsätzlich kannst du weiterhin ein HW Raid verwenden. Mit LVM-Thin und eine funktionierende Lösung. Da du nur einen Host hast, brauchst du auch die ZFS Replica Features etc nicht.
SSD ist immer eine Empfehlung als Datastore.
Erstmal egal was du machst - Keep it Simple Stupid ;-)...
ja - ist normal.
die VM läuft ja auf dem anderen Knoten.
Normalerweise richtest du ein HA Ein (unter Datacenter) welches die VM dann automatisch auf den replizierten Knoten verschiebt.
du findest aber am ReplicaZiel im Datenspeicher die VM-Disk. Unter Replikation innerhalb der VM siehst du...
die machen erstmal nichts anders, nur können die eben viel mehr schreibzyklen ab.
als plastischen Vergleich aus der realen Welt des Handwerks:
du kannst mit einem billigen Baumarktbohrhammer genauso Löcher bohren wie mit einem Markengerät für den "Profi" was den 10fachen Preis hat. Die...
würde noch dazu ergänzen:
sicher das du die non-enterprise SSDS im raidz laufen lassen willst? damit machst du die noch schneller tot als ohnehin. ich persönlich würde (wenn ich die nehmen würde) definitiv als striped-mirror mit regelmäßigem ZFS Trim (1x die woche?) laufen lassen.
Maybe to late for you - i ordered one today to check out the limits. i guess with 64 - 128GB ram it should run flawless.
in think in about one week i can give you a first impression
stay calm =)
hmm...interessanterweise sind es auschließlich WriteErrors.
weißt du wie heavy die IO Last war?
klingt irgendwie nach NCQ Problem, dafür müsste man aber mehr zu den Umständen wissen
die Smartwerte der SSD sehen gut aus.
kannst du die Smart der zweiten SSD noch posten?
die sieht eigentlich gut aus.
kenne das Problem von einem Controller den ich mal im Einsatz hatte - da war es ein Port am Controller der bei hoher Leselast (Srub etc.)
hast du im Gehäuse noch platz um die...
poste doch mal bitte den completten Inhalt wenn du in der Shell: "smartctl -a /dev/sdj" bzw /dev/sdk
was ist das für eine Hardware? im besonderen:
- Controller?
- Kabel
- Backplane
etc.
oft liegt da der Fehler. Aber schick bitte mal die Kompletten Smart Werte rüber
Zwei varianten fallen mir Spontan ein:
- beide Server mit einem ZFS Speicher versehen und mittels Replica in den gewünschten Abständen replizieren
- mit GlusterFS einen LiveSync einrichten (dann ist das Filesystem darunter egal) https://docs.gluster.org/en/latest/ (am besten ein dritter Node...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.