Wenn du keine Erfahrung hast mit ZFS, dann nutze die Proxmox defaults.
RaidZ ohne Special Device ist schon spürbar langsamer beim schreiben, aber beim Backup begrenzt da der Compression Speed der CPU mehr.
Natürlich mit ZFS und ZFS RAID ging schon vor Ewigkeiten stabil mit Solaris.
Bei RaidZ nehme ich immer 2 kleine NVMe als Special Mirror. Bei kleinen Setups Mirror.
Bei XFS nehme ich alles default + noatime. Aber Ext sollte auch gehen, war bei...
Ich nutze NVMe in der Regel ohne RAID und auf den PBS mit NVMe macht beim Benchmark die CPU dicht bei Werten zwischen 20-100 GB/s je nach Modell.
Aber ich nutze auch fast nur noch AMD Server.
Solche Benchmarks sind eh synthetisch und in der...
Bei 2 Nodes kein Ceph nutzen, außer in einer Spielumgebung zum testen.
ZFS Replikation wäre da das Feature der Wahl für dich.
Wenn du frisch im Job bis und einen guten Start hinlegen willst, könnte ich dir anbieten wir sprechen mal 1-2 Stunden...
Hi, ja das Script ist auch für dich die Lösung für ein nerviges Problem.
Ich habe immer den Ordner mit den VHDx an den PVE per SMB gemountet und da das importdisk durchgeführt.
Das Zielformat gibt dein Zielspeicher vor.
Wenn du LVM-Thin, ZFS oder...
Hardware RAID funktioniert aber anders. Bei HDDs hätte das noch Performance Impact gehabt, aber so sind die Daten sauber logisch getrennt.
Ich mache auch gern für das OS ein kleines Raid10 und den Rest als Raid6, was auch unterschiedlich schnelle...
Kleiner Tipp, bitte mal richtig lesen.
Das ist kein ZFS RAID sondern Hardware RAID. Bei Hardware Raid macht die Trennung Sinn. Im ZFS Pool hat man ja eh keine Trennung.
This sounds, you dont use the Sync Feature from PBS.
I have a Customer with a Location Connected over 2 MBit and this works Fine.
Can you describe your Configuration?
Günstiger Speicher ist relativ und je nach Menge habe ich dedizierte PBS bei Hetzner günstiger pro TB laufen, als man das mit S3 hinbekommen kann.
Außerdem kann man das über die Retention einstellen.
Der „Move“ bei Veeam ist nur eine...
Ja das ist tatsächlich schlecht zu testen.
Ich habe schon mehrere Server mit PCIe Switch gesehen und keiner lief gut. Entweder schlechte Benchmarks bei kleinen I/O bis zu Instabilität.
Ich traue den Dingern kein Stück mehr über den Weg.
Was Dell Vertriebler zusammenstellen, da gibt’s teilweise ganz schlimme Sachen.
Aber das der so gebaut wurde wundert mich.
Daher vermute ich einen PCIe Switch
Today, we announce the availability of a new archive CDN dedicated to the long-term archival of our old and End-of-Life (EOL) releases.
Effective immediately, this archive hosts all repositories for releases based on Debian 10 (Buster) and older...
Die Einstellungen der Controller sind in Ordnung, mich wundert aber wie ihr 12 NVMe an den Controller bekommen habt.
Laut Dell Support gehen da maximal 8 NVMe dran. Die Diskussion hatte sich ch mit dem Support für einen anderen Kunden.
Ich weiß...
Wenn die Einstellungen auf dem Controller bescheiden sind, leidet zuerst die I/O Performance (kleine Chunks) aber der Durchsatz bei großen Full Stripe Writes ist OK.
Würde in diesem Fall aber nicht erklären, warum eine Filecopy bei ihm mit mehreren GB/s läuft, das Backup aber nicht.
Idee: Vielleicht schon: Das Backup wird in Chunks geschrieben, die Filecopy ist eine Datei. Vllt in diese Richtung denken?