Zwar forsch vorgetragen, aber alles leider nicht richtig.
1) Symbolische Links werden von Proxmox nicht ausgewertet, ebenso nicht mount points.
2) Mit ZFS hat das nicht wirklich etwas, denn ZFS kann das ja alles geht das ja alles, nur Proxmox unterstützt das von der Oberfläche her nicht...
Nein gerade nicht, denn in der VM-Config steht nicht der ZFS-Pool-Name sondern der Storage-Name und diese Indirektionstufe ist auch sehr gut, denn ich kann jederzeit den Storage-Namen auf einem andern ZFS-Pool umkonfigurieren, ohne etwas an den VMs zu ändern. Auch ist der Storagename, wie schon...
CEPH ist eine andere Lösung und Proxmox untersützt auch ZFS als eine der Haupt-Storage-Systeme. Und es geht um die simple Sache, dass man die vorhandene Indirektionsstufe Storage-Namen->ZFS-Name flexibler als bisher benutzen kann und damit viele Scenarion sehr viel einfacher, fliexbiler und mit...
Es gibt keine Planung, die ewig hält. Man muss migieren, erweitern, neue Hosts einrichten, alte außer Betrieb nehmen, Speicherplatz erweitertn, Platten tauschen und erweitern usw.
Ich kann aber nicht hingehen und einfach einem Multi-Host-System alle Platten aller Hosts gleichzeitig autauschen...
Habe gerade wieder das Problem. Wegen Wartungsarbeiten an einem Hosts A muss ich die VMs mit storagename "storage-zfs2" (zeigt auf den ZFS-Pool data2/zfs2) auf einen anderen Host B migrieren. Nur geht das nicht, weil auf dem Zielhost B zwar eigentlich genügend Platz ist, aber dieser gesamte...
1) I had mails in the spam quarantine, so I pushed the "white list" button, but the email was NOT delivered. I also cannot find it in the tracking center or logs, so the mail was lost. I expected the button to white list AND deliver the mails.
2) A nice feature would be a button to not only...
Isn't this only for incoming emails? If proxy multiple domains, one need incoming relay rules and outoging relay rules including outgoying relay rules to smart host.
E.g. have have two domains, but the OUTGOING Mail has to be sent via two different SMTP relay hosts at to different domain...
Nein. Es geht doch nicht um das "Merken", sondern darum, dass man Hosts verschieden ausrüsten kann. Je mehr Knoten man hat (also Enterprise), desto häufiger eher hat früher oder später das Problem Es ist dauerhaft kaum durchhaltbar, eine ganze Reihe von Nodes über Jahre physikalisch identisch...
Die Komplexität sehe ich nicht so wirklich. Wenn ein Node auf einen Datastore-Namen zugreift, muss er einfach nur den eindeutigen Namen nehmen, bei dem er auch eingetragen ist. Dieser Code muss ja ohnehin fast oder komplett schon da sein, da man ja einem Datastore Namen sagen kann, auf welchen...
Man müsste einfach nur zwei mit demselben Namen anlegen können, die sich aber bzgl. der zugeordneten Nodes disjunkt unterscheiden.
Irgendein anderer Anwender hatte das hier schon mal wohl so benutzt aber es ist offiziell wohl nicht unterstützt.
Wäre das nicht eine sehr einfache Verbesserung...
Nein. Die ZVOL liegen gerade nicht im Pool selbst sondern in einem ZFS-Dateisystem. Wenn du einen zpool anlegst, wird gleichzeitig ein gleichnamiges ZFS-Dateisystem angelegt. Darunter kannst du denn weiter beliebig tief weiter ZFS-Dateisysteme und darunter wiederum ZVOLs anlegen. Das...
Man kann Dateisysteme beliebig nennen und replizieren. Name ist egal.
Der eigentliche Name (also letetzte Teil des Namens) soll sich ja auch nicht ändern, sondern nur das Vaterdateisystem soll verschieden sein.
Schau dir nochmal das Beispiel mit dataslow und datafast an. Wenn man von die VM...
Ich will VMs zwischen den verschiedenen Nodes replizieren. Dazu müssen Sie auf einem Datastore mit demselben Namen sein, da dieser ja in in der VM configuration erwähnt ist. Die physikalischen Pools auf den einzelnen Nodes sind aber sehr unterschiedlich, so dass ich denselben logischen...
Man kann für jeden Datastore festlegen, dass er nur auf bestimmten Knoten vorhanden ist.
Ich habe aber das Problem, dass ich den Datastore zwar überall haben will, aber für jeden Knoten einen anderes ZFS-Dateisystem als Ziel brauche.
Wie kann das eingerichtet werden?
I have a cluster where I want to split the system and data disk into separate pve-storages, lets say pve storage names storesys and storedata. Due to different physical ZFS storage configurations in the nodes I cannot have the same storage path on all nodes. Is it possible to have the storages...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.