I ask copilot for some performance numbers I got this as ansser
Pool TypeWrite LatencyRead Latency
Replicated~1–2 ms (SSD + network RTT)~1 ms
EC 4+2~3–5 ms (encode + 6 OSD commit)~2–4 ms (decode)
Is EC that bad?
Ich glaube ich muss da nächste Woche nochmal mit freiem Kopf dran. Im Moment drehe ich mich im Kreis.
Ich habe den Host in der Compellent jetzt als "Suse Linux 15" angelegt (stand vorher auf "other multipath"), Debian oder ähnliches kennt die...
Wir nutzen Proxmox im Cluster mit iSCSI + Multipath auf einem Pure Storage Array und haben uns deshalb für LVM thick entschieden (Stabilität / Cluster-Tauglichkeit mit Multipath).
Jetzt zur Frage:
Wirkt Discard / TRIM in so einem Setup...
I believe I've found the fix! It turns out that net.ipv4.conf.all.rp_filter and net.ipv4.conf.default.rp_filter don't work like you'd probably expect. It looks like this settings file is being read too late during startup - after most/all of the...
I would suggest setting the BGP controllers, the EVPN controller AND OPNSense BGP to use the same ASN and then try again. I haven't had the time to test this locally - but I think it should work. There's another bug with the BGP controller that...
It's these one-off situations with the megaraid_sas driver and just installing a Dell HBA330 using the much simpler mpt3sas driver will avoid all this drama. LOL.
In addition, the Dell HBA330 is very cheap to get.
Sorry, should have closed this thread
Using this
{{region}}.rep.googleapis.com/upload/storage/v1/b/{{bucket}}/o
And this with path style works with recent PBS versions :
storage.{{region}}.rep.googleapis.com
Hi !
I have the same touble with my realtek-r8126 network adapter.
After command dpkg -i realtek-r8126-dkms_10.016.00-1_amd64.deb I get:
(Reading database ... 105974 files and directories currently installed.)
Preparing to unpack...
I am trying to create a VM via the API and keep getting invalid format. The authentication appears to be working but not the creation of the VM. I am on Proxmox VE 9.1.2, running on a mini pc and am connecting via WSL - Ubuntu. could you please...
Sorry, but IMHO the article you cite is mostly incorrect or at least misleading in practice:
The article is irrelevant because its calculations are based on unrealistic assumptions, treating every write as a tiny 4 kB block and ignoring how ZFS...
Erstmal vielen Dank an alle für die Unterstützung.
Ich habe den Samstag Vormittag genutzt und den Server komplett neu aufgesetzt und denke ich bin einen halben Schritt weiter, aber irgendwas fehlt noch um den zweiten Pfad zu finden.
Nach...
@ivenae,
das ist ein sehr pragmatischer Ansatz. Gerade bei akuter Knappheit ist das Eliminieren von Variablen (Ballooning, KSM) oft zielführender als das Hoffen auf deren Effizienz. Wie @Falk R. bereits anmerkte, sind die PVE-Defaults oft...
Ich bin auch der Meinung, man kann beim RAM sehr oft noch etwas optimieren.
In jeder Maschine die typische RAM Auslastung anschauen, einen GB hinzu addieren, fest einstellen ohne Ballooning. Notfalls soll die Maschine selbst intern SWAP...
@plentman,
hier die Antworten zu deinen Überlegungen:
SATA vs. NVMe: Für VM-Workloads (Datenbanken, Logs) sind IOPS und Latenz bei Sync-Writes entscheidend, nicht die sequenzielle Bandbreite. Eine Enterprise SATA (S4510) mit PLP zieht hier...
Move the files from the paperless host to the NFS shares using rsync or scp, then mount the NFS shares to the paperless host via /etc/fstab onto the paperless directories.
You probably will have to fiddle with file permissions and owner...
@Falk R.,
absolut valider Punkt. Die Limitierung durch die VMware-API (gerade bei vSphere 7) macht den Live-Import bei großen Datenmengen oft zum Flaschenhals, selbst mit den Verbesserungen in PVE 9.x.
Für die von @j.gelissen genannte...
Ein weiteres Problem mit dem Wizard. Bei vSphere 8.0 U3 geht das noch einigermaßen, aber spätestens bei vSphere 7 ist die von VMware bereitgestellte API so langsam, dass man den Live Import eigentlich nicht nutzen kann/will.
Ich kenne mich null aus mit VMWare. Aber verstehe ich das richtig, dass du unter VMware eine disk ähnlich wie QEMU2 inter Proxmox erstellst und diese dann auf den NFS share von TrueNAS schiebst?
Das kann fast nur in die Hose gehen. Ausser du...
@IsThisThingOn,
du triffst den Nagel auf den Kopf. Das ist der klassische "Perfect Storm": Der Windows-NFS-Client ist per se ineffizient (Locking/Sync), und das dann kombiniert mit VM-Disk-Images auf einem ZFS-Dataset (CoW-on-CoW) potenziert die...