Hallo zusammen,
Ich bitte um Eure Meinung und Hinweise bezüglich einer zukünftigen Konfiguration. Ich habe sehr viel gelesen, was aber noch teilweise von PVE 4 ist. Einiges hat sich ja geändert, auch die verfügbare Hardware.
Hardware wie folgt:
- zwei Netzwerke: LAN und SAN Netzwerk mit je eigenem Switch
- im SAN 3 Knoten, die ein GlusterFS zur Verfügung stellen, ein weiterer Server der NFS zur Verfügung stellt
- zwei physikalische Knoten mit je zwei Festplatten für Proxmox für das PVE
Als CT's sollen unter Centos 7 nun 3 Systeme virtualisiert werden (bereits fertig auf Proxmox 5 eingerichtet und getestet):
S1: Mailserver: das Maildir im CT ist per NFS gemountet
S2: Webserver: das documen root vom Apache wird in der CT per NFS gemountet
S3: Datenbankserver: hier läuft MariaDB in dem CT
Die 3 CT's werden vom PVE in das gemountete GlusterFS per Dump gesichert. Den Mailserver hatte ich mal testweise auf das GlusterFS geschoben (root disk). Die Performance war nicht schlechter, als wenn der CT im lokalen LVM lag, nur beim Starten der CT dauert es natürlich etwas länger. Mit dem Webserver im GlusterFS müßte ich das noch testen, bei dem DB Server wird das wohl auf Grund der Latenz nichts werden. Der Versuch damals unter OpenVZ per iSCSI mount (1 Gbit Netzwerk) war zu unperformant, jedoch auf dem lokalen LVM des Knotens laufen hier seit 2008 mehrere Datenbanken stabil (OpenVZ).
Jetzt habe ich Einiges über die PVE Replikation gelesen. Basis dafür ist ein ZFS. Dieses könnte man auf Grundlage der zwei Festplatten in den Knoten als software RAID1 ausführen. Per Cronjob dann die CTs auf den anderen Knoten replizieren. Da bei Mail- und Webserver die Daten vom NFS kommen und auch dort gesichert werden, würde die Repliaktion reichen. Der Datenbankserver wird per MySQL Master-Slave Replikation und alle 30 min per mysql-dump gesichert. Fällt nun Knoten 1 aus, müßte man händisch die replizierten CT's starten. Die Knoten müßten nacheineander neu installiert werden, da aktuell auf eine der zwei verbauten Platten das PVE auf LVM installiert ist.
Variante 2 wäre das, per HA Cluster zu lösen. Wie müßte man die Hardware erweitern (10 Gig im SAN für Ceph), iSCSI nutzen ? Macht es Sinn dann das GlusterFS parallel zu Ceph oder iSCSI zu betreiben oder sollte man einem dem Vorrang geben - wie sind da Eure Erfahrungen? Für HA braucht man ja als Schiedsrichter noch einen 3. Knoten (der keine Leistung haben muss). Hat Jemand Erfahrung, Datenbanken auch über Ceph oder iSCSI auslagern?
Danke für Anregungen und Hinweise.
Frank
Ich bitte um Eure Meinung und Hinweise bezüglich einer zukünftigen Konfiguration. Ich habe sehr viel gelesen, was aber noch teilweise von PVE 4 ist. Einiges hat sich ja geändert, auch die verfügbare Hardware.
Hardware wie folgt:
- zwei Netzwerke: LAN und SAN Netzwerk mit je eigenem Switch
- im SAN 3 Knoten, die ein GlusterFS zur Verfügung stellen, ein weiterer Server der NFS zur Verfügung stellt
- zwei physikalische Knoten mit je zwei Festplatten für Proxmox für das PVE
Als CT's sollen unter Centos 7 nun 3 Systeme virtualisiert werden (bereits fertig auf Proxmox 5 eingerichtet und getestet):
S1: Mailserver: das Maildir im CT ist per NFS gemountet
S2: Webserver: das documen root vom Apache wird in der CT per NFS gemountet
S3: Datenbankserver: hier läuft MariaDB in dem CT
Die 3 CT's werden vom PVE in das gemountete GlusterFS per Dump gesichert. Den Mailserver hatte ich mal testweise auf das GlusterFS geschoben (root disk). Die Performance war nicht schlechter, als wenn der CT im lokalen LVM lag, nur beim Starten der CT dauert es natürlich etwas länger. Mit dem Webserver im GlusterFS müßte ich das noch testen, bei dem DB Server wird das wohl auf Grund der Latenz nichts werden. Der Versuch damals unter OpenVZ per iSCSI mount (1 Gbit Netzwerk) war zu unperformant, jedoch auf dem lokalen LVM des Knotens laufen hier seit 2008 mehrere Datenbanken stabil (OpenVZ).
Jetzt habe ich Einiges über die PVE Replikation gelesen. Basis dafür ist ein ZFS. Dieses könnte man auf Grundlage der zwei Festplatten in den Knoten als software RAID1 ausführen. Per Cronjob dann die CTs auf den anderen Knoten replizieren. Da bei Mail- und Webserver die Daten vom NFS kommen und auch dort gesichert werden, würde die Repliaktion reichen. Der Datenbankserver wird per MySQL Master-Slave Replikation und alle 30 min per mysql-dump gesichert. Fällt nun Knoten 1 aus, müßte man händisch die replizierten CT's starten. Die Knoten müßten nacheineander neu installiert werden, da aktuell auf eine der zwei verbauten Platten das PVE auf LVM installiert ist.
Variante 2 wäre das, per HA Cluster zu lösen. Wie müßte man die Hardware erweitern (10 Gig im SAN für Ceph), iSCSI nutzen ? Macht es Sinn dann das GlusterFS parallel zu Ceph oder iSCSI zu betreiben oder sollte man einem dem Vorrang geben - wie sind da Eure Erfahrungen? Für HA braucht man ja als Schiedsrichter noch einen 3. Knoten (der keine Leistung haben muss). Hat Jemand Erfahrung, Datenbanken auch über Ceph oder iSCSI auslagern?
Danke für Anregungen und Hinweise.
Frank