Einfachster Weg das root zfs zu übertragen?

Jan 18, 2025
65
8
8
Austria
Hallo!
Ich habe nun endlich etwas Zeit die INTEL SSDs einzusetzen. Die beiden sind jedoch kleiner als die drei Crucials, die aktuell in meinem System laufen. Wenn ich das jetzt nicht durcheinander bringe, dann laufen meine 3x 1TB Crucials als RAID-Z1 und ich möchte die beiden INTELs als RAID-Z0 nutzen. Netto habe ich dann nur wenig weniger Platz aber kaum noch Datensicherheit. Nach dem Umbau werde ich dann in Kürze zwei weitere INETLs einsetzen und diese als Mirror für die beiden aktuellen hinzufügen.

Problem:
Ich bin dieser Anleitung gefolget. Es funktioniert alles, bis auf die letzten Schritte, wenn ich das grub-install.real durchführen möchte. Hier erhalte ich immer nur "Error: Invalid filesystem", workarounds mit tune2fs funktionieren nicht. Der Grund ist wahrscheinlich, dass meine Consumer Crucials eine 512B Sektorgröße haben, die INTELs aber 4096B bevorzugen. Wenn ich also nach der Anleitung die Partitionen clone, sind diese nicht korrekt aligned und damit erhalte ich dann schon Warnungen im parted und fdisk.

Nun habe ich auf den INTEL einfach Proxmox neu installiert und das system funktioniert. Aber meine ganzen VMs und Konfiguration und auch die Lizenz für Proxmox ist weg.
Was ist Eurer Meinung nach der einfachste Weg, das alte System in das neue zu Überführen? Die Schritte aus der Anleitung, einen Snapshot des alten Systems zu machen, diesen unter einem anderen Namen zu importieren und auf das neue ZFS zu exportieren? Kann das gehen?

Alternativ habe ich ja noch einen weiteren Pool mit reinen Daten. Kann ich da aus dem alten System, das gerade erst mal wieder läuft, ein Backup erzeugen und dieses auf das neue System importieren? Ich habe noch nie mit Backups gearbeitet, muss ich zugeben. Schande über mich ;P

Also, wie komme ich möglichst einfach und sicher von den alten Crucials auf die neuen INTELs?
 
ich hab letztens meine Samsung Enterprise SSD gegen 2 Intel Enterprise SSDs getauscht da die Samsung defekt ist,
Das alte System hatte ext4 und das neue ist nen ZFS Raid1.
Aus meinem Backup habe ich dann nach dem ich Proxmox neu installiert hatte den Ordner /var/lib/pve-cluster und /var/lib/rrdcached
auf das neue System kopiert unter einem Rescue Boot System damit Proxmox nicht gestartet ist, danach war alles wieder vorhanden im neuen System

ich sichere alle wichtigen Daten auch mit dem proxmox-backup-client (meinen pbs habe ich parallel zu Proxmox installiert)

Code:
#!/bin/sh
HASH="$(openssl x509 -in /etc/proxmox-backup/proxy.pem -noout -fingerprint -sha256 | cut -d'=' -f2)"
PBS_FINGERPRINT=${HASH}
export PBS_REPOSITORY=root@pam@pbs:pbs
export PBS_PASSWORD='meinPasswort'
export PBS_FINGERPRINT

proxmox-backup-client backup \
  etc.pxar:/etc \
  root.pxar:/root \
  cluster.pxar:/var/lib/pve-cluster \
  manager.pxar:/var/lib/pve-manager \
  rrd.pxar:/var/lib/rrdcached \
  pbs.pxar:/var/lib/proxmox-backup \
  ulb.pxar:/usr/local/bin \
  cron.pxar:/var/spool/cron
 
Last edited:
Cool!
Ich habe nämlich aktuell noch das Problem, dass das neu angelegte Raid-Z0 auch rpool heißt und die alten Platten, wenn sie im System mit booten, den Systemstart verhindern, da der pool ebenfalls rpool heißt.
Alles zu migrieren wäre mir natürlich noch lieber, aber Dein Vorschlag ist klar Plan B!
 
naja Du könntest den neuen pool auch temporär umbenennen in rpoolneu und dann den alten pool auf den neuen kopieren per zfs send
und danach den neuen pool wieder in rpool umbenennen
 
Ja, das werde ich, zumal nichts passieren kann, wenn es nicht funktioniert. Ich muss nur noch herausfinden, wie ich das Problem umgehe, dass das System nicht bootet, wenn beide pools verbunden sind. Ich hatte gestern keine Zeit mehr auszuprobieren, ob ich in der Rescue-Console alle zpool / zfs commands zur Verfügung habe. Heute Abend bin ich wieder dran.