Hallo zusammen,
zuerst mal hoffe ich es ist ok diese Frage hier zu stellen.
Bin seit 3 Jahren als Systemadminstrator in einem Unternehmen und möchte die bestehende vmware ESXi-Infrastruktur auf Proxmox umstellen. Bin noch nicht so lange im Thema und arbeite mich erst Stück für Stück in die Thematik ein.
Aktuell habe ich 2 esxi Server im Einsatz (kein vSphere). Der erste Server ist recht aktuell und wurde letztes Jahr beschafft, der zweite Server wurde bereits 2017 beschafft.
Der zweite (ältere) Server ist eigentlich nice-to-have, da laufen ein paar Test-VMs aber nichts was wirklich für den produktiven Betrieb notwendig ist.
Beide Server hängen per isci an einem SAN (ebenfalls 2017) das 5 Raids auf HDDs und ein Raid auf SSD besitzt. Die Hypervisor haben keine eigenen Festplatten (außer fürs OS). In Summe habe ich ca. 11TB zur Nutzung zur Verfügung. Genutzt sind aktuell ca. 9 TB. Aufgrund der eingeschränkten Unterstützung des SANs und der fragwürdigen RAID-Konfigurationen ist jedoch der Speicher eher knapp.
Der neue Server hat eine PCI-Raid Karte mit 2x NVMe. Dieses wird aktuell verwendet für einen Datenbankserver (läuft auch als VM auf dem Hypervisor).
Als der neue Server letztes Jahr beschafft wurde, durfte das Thema Speicher jedoch nicht berücksichtigt werden.
(Aussage: Das SAN hat damals 10.000€ gekostet und der Vorteil des SAN ist, dass wenn ein Hypervisor ausfällt die VMs recht zeitnahe auf dem zweiten Hypervisor gestartet werden können). Meine Argumente dass das SAN morgen defekt sein kann und wir dann einen längeren komplett Ausfall haben wurden leider nicht wahrgenommen. Außerdem bin ich ziemlich sicher dass dieses SAN der Flaschenhals in unserer Infrastruktur ist.
Aufgrund von NIS2 und daraus resultierenden Anforderungen aus der Risikobewertung sowie der vmware Lizenzänderungen plane ich nun den Umstieg auf Proxmox und in diesem Zuge werde ich auch das Thema Speicher angehen.
Mein erster Gedanke wäre wie folgt:
Alle VMs auf den zweiten (älteren Server) während der Umstellung laufen lassen.
Den neueren Server mit 8x SSD bestücken (der hat 8x 3.5 Zoll Einschübe). Proxmox auf den neuen Server installieren, dann die Migration aller VMs durchführen.
Meine Aktuelle Frage dazu wäre, wie die 8 Platten im neueren Proxmox dann konfiguriert werden.
So wie ich das verstanden habe, käme hier dann ZFS zum Einsatz. Muss ich hier dann auf etwas aufpassen oder ist das mit der Raid Konfiguration und der daraus resultierenden Performance dann nicht mehr so heikel?
Ein RAID-Z1 mit 3 Disks pro DataGroup und mit 4 Data Groups auf jeweils 4 TB Platten ergibt eine Kapazität von 26TB und Performance sollte auch gut sein so wie ich das verstanden habe.
Hardware-RAID Controller macht ja weniger Sinn mit Proxmox (was ich bis dato rauslesen konnte).
Sollte high availability dann eine Vorgabe von der Geschäftsführung sein dann würde ich einen identen Server und einen RaspberryPi als qdevice verwenden.
Wer bis jetzt gelesen hat ist natürlich gern eingeladen seine Ideen und Anregungen mit mir zu teilen
Vielen Dank vorab.
zuerst mal hoffe ich es ist ok diese Frage hier zu stellen.
Bin seit 3 Jahren als Systemadminstrator in einem Unternehmen und möchte die bestehende vmware ESXi-Infrastruktur auf Proxmox umstellen. Bin noch nicht so lange im Thema und arbeite mich erst Stück für Stück in die Thematik ein.
Aktuell habe ich 2 esxi Server im Einsatz (kein vSphere). Der erste Server ist recht aktuell und wurde letztes Jahr beschafft, der zweite Server wurde bereits 2017 beschafft.
Der zweite (ältere) Server ist eigentlich nice-to-have, da laufen ein paar Test-VMs aber nichts was wirklich für den produktiven Betrieb notwendig ist.
Beide Server hängen per isci an einem SAN (ebenfalls 2017) das 5 Raids auf HDDs und ein Raid auf SSD besitzt. Die Hypervisor haben keine eigenen Festplatten (außer fürs OS). In Summe habe ich ca. 11TB zur Nutzung zur Verfügung. Genutzt sind aktuell ca. 9 TB. Aufgrund der eingeschränkten Unterstützung des SANs und der fragwürdigen RAID-Konfigurationen ist jedoch der Speicher eher knapp.
Der neue Server hat eine PCI-Raid Karte mit 2x NVMe. Dieses wird aktuell verwendet für einen Datenbankserver (läuft auch als VM auf dem Hypervisor).
Als der neue Server letztes Jahr beschafft wurde, durfte das Thema Speicher jedoch nicht berücksichtigt werden.
(Aussage: Das SAN hat damals 10.000€ gekostet und der Vorteil des SAN ist, dass wenn ein Hypervisor ausfällt die VMs recht zeitnahe auf dem zweiten Hypervisor gestartet werden können). Meine Argumente dass das SAN morgen defekt sein kann und wir dann einen längeren komplett Ausfall haben wurden leider nicht wahrgenommen. Außerdem bin ich ziemlich sicher dass dieses SAN der Flaschenhals in unserer Infrastruktur ist.
Aufgrund von NIS2 und daraus resultierenden Anforderungen aus der Risikobewertung sowie der vmware Lizenzänderungen plane ich nun den Umstieg auf Proxmox und in diesem Zuge werde ich auch das Thema Speicher angehen.
Mein erster Gedanke wäre wie folgt:
Alle VMs auf den zweiten (älteren Server) während der Umstellung laufen lassen.
Den neueren Server mit 8x SSD bestücken (der hat 8x 3.5 Zoll Einschübe). Proxmox auf den neuen Server installieren, dann die Migration aller VMs durchführen.
Meine Aktuelle Frage dazu wäre, wie die 8 Platten im neueren Proxmox dann konfiguriert werden.
So wie ich das verstanden habe, käme hier dann ZFS zum Einsatz. Muss ich hier dann auf etwas aufpassen oder ist das mit der Raid Konfiguration und der daraus resultierenden Performance dann nicht mehr so heikel?
Ein RAID-Z1 mit 3 Disks pro DataGroup und mit 4 Data Groups auf jeweils 4 TB Platten ergibt eine Kapazität von 26TB und Performance sollte auch gut sein so wie ich das verstanden habe.
Hardware-RAID Controller macht ja weniger Sinn mit Proxmox (was ich bis dato rauslesen konnte).
Sollte high availability dann eine Vorgabe von der Geschäftsführung sein dann würde ich einen identen Server und einen RaspberryPi als qdevice verwenden.
Wer bis jetzt gelesen hat ist natürlich gern eingeladen seine Ideen und Anregungen mit mir zu teilen
Vielen Dank vorab.
Last edited: