just to not misunderstand something - do you mean a Community level subscription, instead of a Basic Level Subscription? https://www.proxmox.com/en/products/proxmox-mail-gateway/pricing
Your posts mixes the terminology (license, subscription...
In short: if Ceph warns you about something, do something about it.
Read the full bugreport and found this comment [1]: "This issue seems to mostly affect disks which were heavily fragmented.". Mine are and in fact I have some warnings related...
Initially i'd like to raise concerns about the amount of available storage already beeing in use. By default CEPH doesnt allow more then 80% so you'd have to take precautions really soon while taking these concerns into consideration.
I'd highly...
Fleecing ist nur ein Cache damit du nicht auf den PBS warten musst.
Die Backups laufen immer so, dass wenn während eines Snapshot Backups die VM schreiben möchte, muss der Block vorher gelesen werden und auf dem PBS geschrieben werden, bevor der...
PVE8.4.14 + Ceph 19.2.3, 3 node cluster. All disks are PCIe NVMe. Different pools, some with zstd compression enabled.
I'm seeing OSD crashing lately with the same failure. Journal shows that it is unable to properly run RocksDB with an assert...
Ich habe von Hetzner diese Antwort erhalten:
Sehr geehrter Kunde,
Wir möchten Ihnen mitteilen, dass die meisten S3-Buckets, die vor dem 22. Januar erstellt wurden, tatsächlich eine verminderte Leistung aufweisen.
Wir sind uns bewusst, dass...
Ich weiß ich bin spät dran, aber Zeit ist eh relativ wenn man noch SCO Server betreibt.
Du kannst es durch Anpassung innerhalb deiner SCO abstellen, es gibt zwei Möglichkeiten:
Use a boot time parameter:
* Add "clock.disable_short_timers=1"...
can you try with the following changes to the config:
instead of
hostpci0: 0000:e1:00.0,pcie=1
hostpci1: 0000:e1:00.1,pcie=1
please use
hostpci0: 0000:e1:00,pcie=1
this will passthrough both functions as one device, like it is visible on...
Ich glaube du solltest mal lesen was du schreibst und du sitzt hier im Elfenbeinturm.
Du hast selbst geschrieben:
Und diese Aussage so allein ist nun mal falsch. Das man HA dafür braucht ist klar und das es Nachteile hat ist auch klar, das wurde...
Performanter ist das nicht, eher weniger Performant, weil dann auch alle Reads den Host verlassen müssen. Macht aber Sinn wenn man sehr viel Windows betreibt und die CPU Ressourcen für Ceph nicht teuer mit MS Lizenzen bezahlen möchte.
Hey, vielen Dank.
Als zentrales Storage meinte ich eine zentrales Ceph Storage-Cluster, also kein HCI-Ceph. Wir vermuten, dass ist performanter.
Siehst du da Probleme oder Nachteile.
Your published DKIM record (pmg._domainkey.dti.uncoma.edu.ar) is valid. What is your actual issue when you do the lookup? The DNS record itself should work.
dig txt pmg._domainkey.dti.uncoma.edu.ar +short
" v=DKIM1; h=sha256; k=rsa...
hi, video weiss ich leider nicht - aber deine variante is eh auch richtig - wenn du dich mit SDN nicht wohlfühlst, dann mach es anders (richtig ;-) ) - weil wie du sagst, du hast ja keinen 30 node cluster und keine 100 vlans ;-)
Bitte nicht, wenn ihr eh schon vSAN nutzt, dann habt ihr doch schon alle Voraussetzungen für Ceph. Das harmoniert und skaliert viel besser als ein externes Storage.
Derzeit kann das eingebaute CRS nur so viel wie DRS Teilautomatisiert. Es gibt...
https://www.proxmox.com/en/about/about-us/stories hat einiges an Success Stories über Firmen, die ihre Infrastruktur migriert haben. Envtl. kann auch deren Vertrieb sales@office.com mit Referenzen dienen.
Auf die Schnelle habe ich folgende...
Hi, selbst migriert habe ich bisher erst Cluster bis ca. 300VMs, aber ich kenne auch Unternehmen mit bis zu 2000VMs.
Bei großen Unternehmen ist es aber oft schwieriger Infos zu bekommen, die veröffentlicht werden dürfen.
Die Migration von großen...
Hi all,
we want to use PMG as cluster. Our purchasement manager accidently bought the community edition for the second node. Of course i know in the documentation can be read that different licenses should not be mixed. In my opinion its about to...
Hi everyone,
we're currently running a small cluster (4 nodes + qdevice) in a single server room and would now like to physically move two nodes to a separate location for some georedundancy. Those two servers are mostly hot spares, replicating...
Hi @bbgeek17
i ment, using a shared device over all proxmox servers, currently iam using seperate LUNs for my Proxmox Server (not shared).
Thanks for your answer.