Refurbished Mini PC oder China Mini-PC?

Das unterschreib ich sofort:
Naja, wenn du den Thread ganz gelesen hättest, hättest du aber auch die Erklärungen nahezu aller anderen Teilnehmer gelesen, die begründet den von dir ztitierten OP widersprochen haben. Nein, es ist KEINE Philosophiefrage, ob SSDs mit PLP schneller und mehr aushalten als Consumer-SSDs, dafür gibt es handfeste (in dem Thread ausführlich dargelegte) technische Gründe.
Mich würde da echt mal eine Quanzifizierung interessieren.
iotop auf den Host über längere Zeit laufen lassen, da sieht man dann ganz gut welche Prozesse wieviel schreiben.
 
  • Like
Reactions: beisser
Nein, es ist KEINE Philosophiefrage, ob SSDs mit PLP schneller und mehr aushalten als Consumer-SSDs, dafür gibt es handfeste (in dem Thread ausführlich dargelegte) technische Gründe.
Es ist aber eine Philosopiefrage, oder wie der andere da meinte, der Paranoia, ob man daheim ECC, sync writes, PLP & Co einsetzt und das geradezu als überlebensnotwendig ansieht. Selbst wenn man sich das ganze Zeug leisten kann. Ich finde, es überzeugt alles nicht, was ich bisher dazu gelesen habe, schon gar nicht, wenn ich es mit den Erfahrungen der letzten Jahrzehnte betrachte. :) Dann gibt's sogar noch Leute mit beschränkten finanziellen Mitteln, die gar nicht anders können als mit Non-Enterprise-HW. Geht auch. Und sogar gut.
 
ich verwende z.b. nur consumer-hw, mit ausnahme der ssd's in meinen "produktiven" nodes im homelab.
ich habe kein ECC-ram, keine redundanten netzteile, keine redundanten switche.
bei mir läuft alles auf NUC's und anderen Mini-PC's.
man kann alles ohne enterprise-ssds machen. ist gar kein problem, aber dann würde ich die verwendung anderer filesysteme empfehlen, die die ssd's nicht so sehr verschleissen (lvm mit ext4 z.b.).

ich habe z.b. einen minipc, den ich gerne für basteleien hernehme.
dort habe ich ebenfalls proxmox am laufen, aber weil der nur ne billige 1tb m.2 ssd drin hat verwende ich dort halt lvm mit ext4 anstatt zfs, weil ich der ssd nicht beim degradieren zusehen will.
läuft genauso gut, lässt aber ein paar zfs-features vermissen.

das hier ist übrigens das teil:

1763410030618.png

an dem teil ist nix enterprise und tuts auch, aber halt mit lvm ;)
 
  • Like
Reactions: UdoB
ich verwende z.b. nur consumer-hw,

Klar kann man das machen. Mein Homelab besteht ebenfalls aus diversen Mini-PC. ((Alle ehemals genutzte, bessere Xeon mit ECC usw. sind ausgemustert oder spielen wöchentlich einmalig "PBS", ausschließlich wegen der verrückten Strompreise...))

Aber empfehlen kann mag ich das nicht.

Das ist ja das schöne am Homelab: jeder legt seine eigenen Maßstäbe fest :-)
 
Last edited:
Dann gibt's sogar noch Leute mit beschränkten finanziellen Mitteln, die gar nicht anders können als mit Non-Enterprise-HW. Geht auch. Und sogar gut.
Naja, gebrauchte Enterprise-SATA-SSDs sind auf ebay echt bezahlbar und halten selbst gebraucht deutlich länger als neue Consumer-SSDs. BTW: Sonst habe ich auf meinen Mini-PCs auch "nur" Consumer-Hardware.
Das ist ja das schöne am Homelab: jeder legt seine eigenen Maßstäbe fest :-)
Dagegen ist ja auch nichts zu sagen, man sollte sich halt bei seiner Entscheidung nicht nach einer Philosophie richten, die auf einen Missverständnis der technischen Rahmenbedingungen beruht.
 
  • Like
Reactions: UdoB
Moin,

um mal etwas Praxis- und Langzeiterfahrung in die Diskussion einzubringen ...
Mir ist vor kurzem eine günstige Consumer-SSD (120 GB SanDisk SSD Plus) nach fast 9 Jahren 24/7 Dauereinsatz "gestorben". Lief mit PVE (LVM/ext4) in einem HP Microserver Gen8 mit einer handvoll Containern und VM. Viel zu tun hatte die Kiste nicht ;).
 
  • Like
Reactions: 6equj5
Moin,

um mal etwas Praxis- und Langzeiterfahrung in die Diskussion einzubringen ...
Mir ist vor kurzem eine günstige Consumer-SSD (120 GB SanDisk SSD Plus) nach fast 9 Jahren 24/7 Dauereinsatz "gestorben". Lief mit PVE (LVM/ext4) in einem HP Microserver Gen8 mit einer handvoll Containern und VM. Viel zu tun hatte die Kiste nicht ;).
Und wie sah dann die Realität aus?

War ein Mirror/ Raid1 vorhanden, konnte man weiter arbeiten und das System sich wieder herstellen lassen?

Mit ZFS kann man, nach meiner Erfahrung, einfach die Disk wieder mit BIOS und EFI Bootbereich ausstatten und den Datenbereich, zfs rpool, wieder auf den Stand ZFS Mirror bringen.

Über den gleichen Vorgang bereite man auch eine Erweiterung des zfs rpool vor.
Wenn dann beide alten SSD raus und durch die neuen und größeren ersetzt wurden, kann der Poll im Betrieb auch auf das neue Maximum erweitert werden.

Wie würde ich das alles mit einem LVM/ ext4 machen?
 
Last edited:
  • Like
Reactions: Johannes S
Und wie sah dann die Realität aus?
So wie ich mir das ausgemalt hatte ... ;)

War ein Mirror/ Raid1 vorhanden, konnte man weiter arbeiten und das System sich wieder herstellen lassen?
Nein. Muss auch nicht. Wenn die Technik mal einen oder auch 14 Tage nicht funktioniert ist mir das so was von egal. :cool:
Wie würde ich das alles mit einem LVM/ ext4 machen?
Ich weiß nicht wie du das machen würdest, aber bei mir so: Neue SSD rein. Aktuelles PVE installiert. Netzwerk konfiguriert. Container und VM aus Backup wieder eingespielt. Fertig.
 
das ist genau das, was ich meine.
pve bietet für viele hardware-kombinationen passende filesysteme und installationsmethoden.
fast 10 jahre lebensdauer sind doch klasse bei so einer kleinen ssd und lvm.
zfs hätte die ssd vermutlich sehr schnell dahingerafft.

und ja, kiste neu installieren und backups restoren ist definitiv valide, wenn man die entsprechende downtime und den potentiellen datenverlust seit dem letzten backup verkraften kann.
nicht jeder braucht HA, redundanz, etc.

news ist aber auch korrekt.
zfs erlaubt es einem etwas sorgenfreier mit seinen hosts zu arbeiten, speziell da eine pve-konfig durchaus mal komplexer sein kann (netzwerk, ceph, authentication) und es noch kein native feature fürs backup der entsprechenden konfiguration gibt.
 
  • Like
Reactions: mikee