Hi,
ich betreibe privat einen Proxmox Cluster mit 2 Nodes, jeweils AMD CPU (4vCPU), 32GB RAM, 1 NVMe SSD für OS, 2x HDD als ZFS Mirror für Daten / VMs. Die Nodes sind weitestgehend identisch mit Ausnahme der Festplatten: In der "guten" Node arbeiten 2x 4TB WD RED 3,5" HDDS, in der "schlechten" Node 2x 2TB Seagate Barracuda 2,5" HDD. Die Seagates sind zum einen Desktop/Laptop HDDs und zum anderen "uralt" (4 Jahre). Sie werden jetzt gegen ebenfalls 2x 4TB WD RED (Plus) 3,5" HDDs getauscht.
Die Frage ist nun: Welche Methode ist - im Hinblick auf Aufwand, Zeit und Fehleranfälligkeit - effizienter? Aus mdtools RAID Zeiten kenne ich grundsätzlich 2 Methoden:
Mit ZFS hab ich bisher keine Erfahrung gesammelt. Grundsätzlich würde ich Methode 2 bevorzugen, habe aber ein bisschen Sorge, dass dann Paritionsgrenzen, Alignment oder sowas nicht optimal sind.
Randinfo:
ich betreibe privat einen Proxmox Cluster mit 2 Nodes, jeweils AMD CPU (4vCPU), 32GB RAM, 1 NVMe SSD für OS, 2x HDD als ZFS Mirror für Daten / VMs. Die Nodes sind weitestgehend identisch mit Ausnahme der Festplatten: In der "guten" Node arbeiten 2x 4TB WD RED 3,5" HDDS, in der "schlechten" Node 2x 2TB Seagate Barracuda 2,5" HDD. Die Seagates sind zum einen Desktop/Laptop HDDs und zum anderen "uralt" (4 Jahre). Sie werden jetzt gegen ebenfalls 2x 4TB WD RED (Plus) 3,5" HDDs getauscht.
Die Frage ist nun: Welche Methode ist - im Hinblick auf Aufwand, Zeit und Fehleranfälligkeit - effizienter? Aus mdtools RAID Zeiten kenne ich grundsätzlich 2 Methoden:
- Backup / Verschieben der Daten vom RAID / Mirror und Neuanlage. Danach Restore der Daten.
- Markieren von jeweils einer Platte als "faulty", dann Austausch gegen neue. Nach dem Sync dann Partitionen und später Filesystem ausdehnen.
Mit ZFS hab ich bisher keine Erfahrung gesammelt. Grundsätzlich würde ich Methode 2 bevorzugen, habe aber ein bisschen Sorge, dass dann Paritionsgrenzen, Alignment oder sowas nicht optimal sind.
Randinfo:
- die "gute" Node hat genug Platz und Leistung um vorübergehend die VMs und Daten der "schlechten" Node aufzunehmen
- alle Daten werden tagesaktuell gesichert und sich von geringer Kritikalität.