Isn't this only for incoming emails? If proxy multiple domains, one need incoming relay rules and outoging relay rules including outgoying relay rules to smart host.
E.g. have have two domains, but the OUTGOING Mail has to be sent via two different SMTP relay hosts at to different domain...
Nein. Es geht doch nicht um das "Merken", sondern darum, dass man Hosts verschieden ausrüsten kann. Je mehr Knoten man hat (also Enterprise), desto häufiger eher hat früher oder später das Problem Es ist dauerhaft kaum durchhaltbar, eine ganze Reihe von Nodes über Jahre physikalisch identisch...
Die Komplexität sehe ich nicht so wirklich. Wenn ein Node auf einen Datastore-Namen zugreift, muss er einfach nur den eindeutigen Namen nehmen, bei dem er auch eingetragen ist. Dieser Code muss ja ohnehin fast oder komplett schon da sein, da man ja einem Datastore Namen sagen kann, auf welchen...
Man müsste einfach nur zwei mit demselben Namen anlegen können, die sich aber bzgl. der zugeordneten Nodes disjunkt unterscheiden.
Irgendein anderer Anwender hatte das hier schon mal wohl so benutzt aber es ist offiziell wohl nicht unterstützt.
Wäre das nicht eine sehr einfache Verbesserung...
Nein. Die ZVOL liegen gerade nicht im Pool selbst sondern in einem ZFS-Dateisystem. Wenn du einen zpool anlegst, wird gleichzeitig ein gleichnamiges ZFS-Dateisystem angelegt. Darunter kannst du denn weiter beliebig tief weiter ZFS-Dateisysteme und darunter wiederum ZVOLs anlegen. Das...
Man kann Dateisysteme beliebig nennen und replizieren. Name ist egal.
Der eigentliche Name (also letetzte Teil des Namens) soll sich ja auch nicht ändern, sondern nur das Vaterdateisystem soll verschieden sein.
Schau dir nochmal das Beispiel mit dataslow und datafast an. Wenn man von die VM...
Ich will VMs zwischen den verschiedenen Nodes replizieren. Dazu müssen Sie auf einem Datastore mit demselben Namen sein, da dieser ja in in der VM configuration erwähnt ist. Die physikalischen Pools auf den einzelnen Nodes sind aber sehr unterschiedlich, so dass ich denselben logischen...
Man kann für jeden Datastore festlegen, dass er nur auf bestimmten Knoten vorhanden ist.
Ich habe aber das Problem, dass ich den Datastore zwar überall haben will, aber für jeden Knoten einen anderes ZFS-Dateisystem als Ziel brauche.
Wie kann das eingerichtet werden?
I have a cluster where I want to split the system and data disk into separate pve-storages, lets say pve storage names storesys and storedata. Due to different physical ZFS storage configurations in the nodes I cannot have the same storage path on all nodes. Is it possible to have the storages...
I tried to use self encrypting disks (SED) and use the sedutil (https://github.com/Drive-Trust-Alliance/sedutil)
However I get an error message, that some kernel flag is not set correctly? What is the problem (there are others people who seem to to use sedutil successfully)...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.