Zufällige und unkontrollierte Neustarts

Die Repos sind von Jessie, da habe ich nix geändert. Dachte das würde mit den dist-upgrades automatisch gemacht.
Passe ich gleich mal an und versuche mein Glück.
Hi,
hier liegt anscheind ein größeres Missverständnis vor!
"apt dist-upgrade" ändert nichts an den verwendeten Repositories, es sorgt nur dafür das sämtliche Pakete, die update-fähig sind geupdatges werden und dadurch werden die Abhängigkeiten zum Teil anders aufgelöst.
Bei Proxmox-VE nie "apt upgrade" verwenden sondern immer nur "apt dist-upgrade".

Bei einem dist-upgrade zu einer anderen Version werden die Packetquellen angepasst (s.B. wird jessie überall durch stretch ersetzt) und dann wird ein dist-upgrade sämtliche Pakete auf den neuesten Stand bringen.
Wenn Du noch auf 4.4 bist, verwende bitte folgendes repo:
Code:
cat /etc/apt/sources.list.d/pve-no-subscription.list
deb http://download.proxmox.com/debian jessie pve-no-subscription
Mit den CPUs, da hab' ich "host" genommen, weil ich keine Live-Migration machen werde, habe hier nur einen Server stehen, der Strom ist mir zu teuer. Habe es "nur zum Spielen" und da müßen sich die Kosten gegenüber der "Regierung" rechtfertigen lassen.
Zum Teil macht kvm64 hier trotzdem Sinn. Angenommen zu installiert ein cpu-abhängiges OS und Du wechselt dann das Motherbord, weil schneller oder so, dann kann es passieren dass deine VM meckert, weil sich die CPU geändert hat...
Der neue Server hat mich inzwischen auf folgende Theorie gebracht:
Wenn der RAM zu voll wird, scheinen die plötzlichen Neustarts aufzutreten.
Richtig! das war unter anderem der Grund nach der Abfrage der VMs - damit ich sehe wieviel Speicher schon mal belegt ist.
ZFS ist nett, braucht aber einiges an RAM. Du kannst es einschränken (per default greift es sich den halben Hauptspeicher).
Wenn Du es am Limit fährst gibt er reboots - und da kann Proxmox wenig für. Das ist eher kernel/zfs.

Du kannst z.B. sowas anlegen um den Speicheverbrauch zu senken (senkt auch den speed, weil weniger cache):
Code:
cat /etc/modprobe.d/zfs.conf
# ZFS tuning for a proxmox machine that reserves 2GB for ZFS
#
# Don't let ZFS use less than 1GB and more than 2GB
options zfs zfs_arc_min=1073741824
options zfs zfs_arc_max=2147483648
Hinterher ist ein Reboot fällig.

Udo
 
Guten Morgen Udo,

danke für die sehr hilfreiche Antwort.
Das mit dem dist-upgrade hatte ich echt so falsch verstanden, wie Du es befürchtet hattest.
Jetzt wird mir auch einiges bei anderen Debian-Maschinen klarer, die schon ein paar Jahre liefen, bis ich sie jetzt mit dem neuen Server abgelöst hab'. Ist so ein typisches Detail, das man nie hinterfragt und sich ständig über komische Dinge wundert...

Was ist Deine Empfehlung, soll ich lieber auf 4.4 bleiben (denke Du meinst das mit "Wenn Du noch auf 4.4 bist, verwende bitte folgendes repo:") oder auf 5.1 gehen? Wenn 5.1, wie mache ich das am sichersten?

Das mit dem RAM freut mich auf der einen Seite, das ich es mir richtig "zusammengereimt" habe und auf der anderen Seite finde ich es bißchen komisch. Dieser Puffer wäre dort dann ja 16 GB groß, das fände ich sinnvoll, wenn der RAM frei wäre. Nur wenn der RAM durch Anwendungen voller wird, nimmt der den Puffer dann nicht automatisch zurück? Ich hätte jetzt vermutet, der Puffer hat eine niedrigere Priorität als Anwendungen.
Wenn ich das jetzt recht verstanden hab', sollte ich den ZFS-Puffer so begrenzen, das er zusammen mit den VM's und dem normalen Host-OS nie an die Grenzen stößt. Stimmt das?

Wie machst Du das bei Deinen Maschinen?

Gruß,
Christian
 
Was ist Deine Empfehlung, soll ich lieber auf 4.4 bleiben (denke Du meinst das mit "Wenn Du noch auf 4.4 bist, verwende bitte folgendes repo:") oder auf 5.1 gehen? Wenn 5.1, wie mache ich das am sichersten?
Hi Christian,
auch wenn Du auf 5.1 gehst, musst Du vorher auf den aktuellen stand von 4.4 gehen. Von daher musst Du erst ein repo einstellen, von dem Du mit aktuellen Packeten versorgt wirst.
Danach kannst Du ein Dist-Upgrade zu 5.1 machen (hab ich in der letzten Woche bei 10 Maschinen gemacht - lief bis auf bei einer problemlos, und bei der lag es eher an der Maschine als an Proxmox). Halte Dich am besten an die Anleitung dazu im wiki-Bereich.

Ich persönlich würde auf 5.1 gehen - aktuellere Software und durch neueren Kernel ggf einen Ticken schneller.
Wenn ich das jetzt recht verstanden hab', sollte ich den ZFS-Puffer so begrenzen, das er zusammen mit den VM's und dem normalen Host-OS nie an die Grenzen stößt. Stimmt das?
Würde ich so machen
Wie machst Du das bei Deinen Maschinen?
Ich setzte nicht so wahnsinnig viel zfs ein, weil viele der Maschinen, die ich im Einsatz habe, mit unsäglichen LSI-Raidcontrollern ausgerüstet sind die kein path through können (notfall-lösung raid-0 für einzelne disk - ist so wie es klingt: murks).
Und die Server haben auch gut Ram (die meisten 128GB). Trotzdem habe ich zfs_arc_max kräfig beschnitten, weil dort so einiges an VMs läuft.

Bis denne

Udo
 
Hallo Udo,
erstmal vielen Dank für Deine Einschätzung.
Ich werde die Woche mal die VM's auf eine dritte Platte sichern und dann das Upgrade machen. Auch werde ich für den großen Server den RAM aufstocken und zwei SSD's besorgen.
Das mit dem ZIL/L2ARC auf eine SSD scheint ja einiges an Geschwindigkeit zu bringen. Hast Du damit Erfahrung? Ich hab' u.a. die Quellen hier gefunden:
a) http://www.freebsduser.eu/zfs/zill2arc-experimente/
b) https://storageconsortium.de/conten...-pools-potentiale-von-hdd-ssd-und-dram-nutzen
Ich würde mir zwei 256 GB Samsung 850 Pro kaufen und dann ZIL und L2ARC jeweils gespiegelt auf Partitionen der SSDs packen.

Achja, und ich habe wahrscheinlich auch den Grund für das gelegentliche Zumüllen des RAMs gefunden, der dann sehr wahrscheinlich zu den Neustarts geführt hat: Ich habe da ein FreeNAS in einer VM laufen, das auch ein ZFS für sich selbst benutzt (hatte ich zu Anfang mit rumgespielt). Da passiert irgendein Scanning in unregelmäßigen Abständen, was zu mittleren Leseraten von gut 20 MB/s führt, und das über Stunden.

Nachdem ich nun ARC auf 10 GB begrenzt habe, sollte der RAM locker reichen. Bin gespannt ob der große nochmal neustartet dann.

Mit der kleinen Kiste muß ich mal schauen, da gehe ich dann angesichts des Kostendrucks dort, lieber auf eine Debian mit ext4-Software-RAID1 und dann Proxmox drauf, das scheint ja auch zu klappen.

Gruß,
Christian
 
Das mit dem ZIL/L2ARC auf eine SSD scheint ja einiges an Geschwindigkeit zu bringen. Hast Du damit Erfahrung?
Hi,
nicht so richtig - hab' ich einmal getestet und das Ergebnis war nicht so prall. Lag aber mehr daran, das zfs mit älteren AMD-CPUs nicht so recht performt - gerade wenn man raidz2 nutzt...
Ich würde mir zwei 256 GB Samsung 850 Pro kaufen und dann ZIL und L2ARC jeweils gespiegelt auf Partitionen der SSDs packen.
Hmm, ich würde für sowas von der Samsung 850 Pro abraten - heisst zwar Pro, aber das bedeutet nicht, dass sie dafür taugt.
Bin mir nicht sicher, inwieweit eine Intel DC S3510 wesentlich teurer wäre... siehe hier: https://www.sebastien-han.fr/blog/2...-if-your-ssd-is-suitable-as-a-journal-device/

Udo
 
Guten Morgen Udo,

habe mir den Test des Franzonen angeschaut, da sieht die 850 Pro ja alles andere als gut aus. Wenn ich jetzt mir andere Tests anschaue, dann finde ich leider kaum was über neuere Intel SSDs, über die 850 Pro aber überall Siege. Oder knapp dran. Bei den Schreib-IOPS scheint Samsung im Gegensatz zu anderen wirklich nicht so gut da zu stehen (https://www.pcwelt.de/produkte/Samsung-SSD_850_Pro_256GB-Test-SSD-8778035.html) nur habe ich von der S3510 oder auch neueren Intels solche gemessenen Werte gar nicht gefunden. Wie es scheint ist wohl die Sandisk Extreme Pro (Als 480 GB-Variante: https://www.pcwelt.de/produkte/Sandisk-Extreme_Pro-Test-SSD-8799619.html) über alles betrachtet der einzige direkte Konkurrent für die Samsung, der recht häufig in vielen Tests und Vergleichen auftaucht. Die Ergebnisse der PCwelt finde ich schön übersichtlich und detailliert, andere Tests sagen ähnliches. Ich kann mir daher irgendwie gar nicht die extrem niedrigen Werte der 850 Pro bei dem Franzonen erklären.
Preislich wäre die Intel oder eine andere 240/256 GB aus deren Kader durchaus drin.

Was ich an der 850 Pro beeindruckend finde sind die 10 Jahre Garantie bei 150 TBW, da kann ich dann jeden Tag gut 40 GB schreiben lassen. Ich weiß zwar nicht wieviel ZIL und L2ARC da wirklich produzieren, aber ich denke für mein Gefummel hier ist das sicher mehr aus ausreichend.
Ich persönlich setze auch lieber auf Haltbarkeit undnehme dafür etwas niedrigere Geschwindigkeit in Kauf. Nur wie viel ist das "bißchen" im Fall der 850 Pro "am Ende des Tages" wirklich? Da habe ich zwar keinen blassen Schimmer aber ich vermute, gegenüber den 150 IOPS, die meine jetzige Konstellation mit nur den zwei WD Gold zu bieten hat, ist auch die Samsung-Lösung für mich schnell. Aber sind alles Vermutungen und Bauchgefühl, würde mich freuen, wenn mir einer ZDF und/oder Erfahrungswerte zurufen könnte.

Losgelöst von meiner "Papierweisheit" und meinem Gefühl, habe ich bisher nur eine Samsung 961 Evo im Server und eine Crucial MX300 im Laptop. Mehr Erfahrungen habe ich mit SSDs leider noch nicht. Welche Erfahrungen hast du gemacht?

Gruß,
Christian
 
Wenn ZFS oder Ceph im Einsatz ist, bitte nie PRO oder EVO serien verwenden (Samsung PRO, EVO, etc.) bzw. wenn man die verwendet, wird man eher nicht sehr glücklich.

Samsung hat eine sehr gute SSD für ZFS/Ceph, die SM863a.
Dasselbe gilt natürlich auch für Intel SSD. Ich betreibe einen Ceph Cluster mit 12 x 1.2 TB Intel DC S3520 ist auch ok, aber etwas langsamer im Vergleich zu den SM863a.
 
Hallo Tom,

danke für Deinen Rat.

Preislich ist die SM863a 240 GB für mich im Rahmen und klingt interessant, wenn auch nur 5 Jahre Garantie. Die 1500 TB TBW sind beeindruckend. Werde ich mal ein gutes Angebot dafür suchen.

Der Neugierde halber: Warum ist die 850 Pro nicht so gut geeignet? Die Lebensdauer oder IOPS?

Gruß,
Christian
 
Die hatte Udo mir auch schon genannt, kann das mit dem extrem niedrigen Ergebnis der 850 Pro mir nicht erklären. Bei allen anderen Tests rennt das Teil wie Sau und bei dem versagt es.
Naja, ich hab' mir zwei SM863a 240 GB bestellt, bis Ende der Woche sollten die drin sein. Dann quäle ich die Maschine auch nochmal ordentlich, da sehe ich dann ja, ob die weiter stabil bleibt. Seit Udo's Tip mit dem Begrenzen des ARC lief alles rund. :)
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!