Move that to a fast network too! Otherwise your guests will be limited by that 1 Gbit. see https://docs.ceph.com/en/latest/rados/configuration/network-config-ref/ for which ceph network is used for what.
Checkout our 2023 Ceph benchmark...
Einverstanden
Das glaube ich hingegen nicht. AFAIK ist die record size zwar generell wie du richtig erwähnt hast eine max Variable, ABER die record size kann für ein einzelnes File nicht variabel sein.
Ein File als 1MB + 16k record zu speichern...
Das ist IMHO falsch.
Angenommen dein recordsize ist 1M. Ein chunk kann von 4MB auf 1.1M komprimiert werden von PBS.
Nun müssen zwei 1M records angelegt werden, sprich 2M storage mit compression off.
Mit LZO wären es nur 1.1M gewesen.
Gibt...
I admit, however, that your comment about the controller's hardware failure is giving me a lot to think about.
Thank you for this; I'll discuss it with my colleagues.
Ich möchte hier noch ein finales Update geben. Nachdem wir nun alle PBS auf ZFS umgestellt haben, erreichen wir gigantische Backupzeiten und Datenübertragungsraten. Für alle die vor dem gleichen Problem stehen. Einfach auf ZFS umstellen, und das...
Today I had the issue again with 0.1.271.
It is a lot less often than with 0.1.285 (this has been running fine since 24. Nov), but the underlying issue seems still be there.
Even rebooting did not help. I had to go to services and start guest...
Sorry, I don't really know. This is just a guess:
according to mountd
-p num or -P num or --port num
Specifies the port number used for RPC listener sockets.
If this option is not specified, rpc.mountd will...
Not the question you are asking, so sorry for derailing it, but why don't you just simply put the PVE or at least one interface of PVE into the same VLAN?
You don't really gain anything in terms of security, and everything has to go through the...
Ergänzend zu IsThingOn: Der PBS setzt für seine ganze Magie keine speziellen Features des Dateisystems heraus, man kann darum so ziemlich jedes Dateisystem nehmen, was von Linux unterstützt wird und Posix-Semantiken unterstützt (also zfs, btrfs...
Danke für den Hinweis.
Ich bin ja auch nicht gegen Dedup. Bei meiner letzten Firma hatten wir die tägliche inkrementelle Veeam-Sicherung mit wöchentlichen Vollbackups von ca. 50 VMs mit Dedup laufen. Wahnsinn, was da auf den Backup-Server...
Du vermischt hier zwei verschiedene Themen.
Das eine ist ZFS dedup. Die dedup Table kann heutzutage auf svdev (also SSD) ausgelagert werden und muss nicht mehr im RAM sein.
Das andere ist dedup mit PBS. Das braucht so ziemlich gar nix an RAM...
Write cache kannst du unabhängig von ZFS verwenden. Ich würde aber darauf verzichten.
Völlig legitim. ZFS sollte eigentlich keine merklich schlechtere Performance liefern, trotzdem stimme ich dir zu, IMHO wären viele homelabber mit einem fake...
Wollte mal noch eine Statusmeldung meines Projektes mit einer neuen UGreen DXP 4800 Plus geben.
Zunächst einmal danke für die vielen "Zuschriften". Wie heißt es so schön: Man lernt nie aus.
Ich bin zu dem Ergebnis gekommen, dass TrueNAS...
Ist denn das zvol auf SSDs? Sonst würde ich das nicht machen.
Aber toll läuft es, war mit 99% der CPU Type.
Deine CPU ist ja noch ziemlich neu ist, kannst du auch mal versuchen ab X86-64-v3 oder gar X86-64-v4 startet.
Hi Alle,
also ich habe jetzt folgendes getan und es scheint zu wirken.
Ich habe den CPU Typ auf X86-64-v2-AES gestellt. Ich habe bei den Vituellen HDDs discard und SSD Emulation eingeschalten.
Ich habe KSM Sharing ausgeschalten.
Ich habe das...
@thorsten.franke
häng dich nicht am write back auf. Ich finde es einfach nicht schlau das für eine Windows VM zu verwenden, wenn die vermutlich wichtig ist. Da hätte ich lieber weniger Performance, dafür Sicherheit mit "no cache".
Gleichzeitig...
Warum haben denn beide Maschinen 4 Sockets mit je 8 Kernen? Der Host hat 1 Socket mit 16 Kernen (32x virtuell). Mit der Konfig der beiden VMs hast du dir selbst elend lange CPU-Wartezeiten eingebaut. Stelle mal um auf 1 Socket und 8 Kerne, damit...
Hardware?
SSD Hersteller?
Die VM nutzt also eine disk auf maindata.
Maindata ist ZFS.
Wie ist das ZFS gemacht?
Mirror?
RAIDZ?
Vermute mal den default 16k volblocksize?
Warum hat die VM writeback?
Falls maindata SSD ist, warum kein SSD emulation...
Fang mal mit den Basics an.
Was ist deine Hardware?
Wie ist dein Storage setup (ext4 und ZFS)?
Was ist es für ein Terminalserver, der langsam ist? Welches OS, welche VM configs.