Moin,
Wir haben ein 5-Node Setup und wollten heute morgen von 7.1-10 auf 7.2 upgraden. Wir haben die erste Node vorbereitet, das bedeutete in unserem Falle, dass wir die Windows-Maschinen darauf herunter gefahren haben und wir eine Kubernetes Node ebenfalls cordoned, drained und herunter gefahren haben. Die Windows Maschinen ziehen wir nicht innerhalb des Clusters um, da wir nicht die Lizenzen dafür haben und die Kubernetes Node müssen wir herunter fahren, da wir eine Platte von dem PVE-Node als Hardware in die VM eingehangen haben, da wir in dem Kubernetes was dort Läuft ein rook-ceph laufen haben. Würden wir das nicht machen, hätten wir sonst ein ceph im ceph und somit eine unnötige Speicher-Redundanz.
Alle Linux-VMs die wir haben, sind mit cloud-init konfiguriert. Auch die Kubernetes-Node.
Das Upgrade haben wir auf der Linux-Konsole über apt durchgeführt.
Nach dem Neustart kam die frisch geupgradete PVE-Node mit einer Identitätskriese wieder ans leben, denn sie denkt nun, sie sei die erwähnte Kubernetes-Node. Die Node hat sich die korrekte IP genommen, hat jedoch scheinbar cloud-init Einstellungen aus der Kubernetes Node übernommen. Genau diese Kubernetes Node hat als einzige Node den cloud-init im ZFS der PVE-Node, da wir, wie erwähnt, die Kubernetes Node aufgrund der Hardware-Zugehörigkeit über die Festplatte zu der PVE-Node, nicht migrieren.
Wenn versucht wird cloud-init zu deaktivieren und über systemctl abzuschalten, ist es beim nächsten Boot wieder da und alle Einstellungen (z.B. Hostname wieder ändern) sind überschrieben worden. Zudem meldet sich die PVE-Node nicht korrekt bei den anderen an, somit kann ich auch nicht die cloud-init aus dem local-zfs in das ceph des PVE verschieben.
Warum greift sich die PVE-Node überhaupt die cloud-init Einstellungen aus dem zfs nach dem Upgrade? Warum ist cloud-init aktiviert nach dem Upgrade?
Wir haben ein 5-Node Setup und wollten heute morgen von 7.1-10 auf 7.2 upgraden. Wir haben die erste Node vorbereitet, das bedeutete in unserem Falle, dass wir die Windows-Maschinen darauf herunter gefahren haben und wir eine Kubernetes Node ebenfalls cordoned, drained und herunter gefahren haben. Die Windows Maschinen ziehen wir nicht innerhalb des Clusters um, da wir nicht die Lizenzen dafür haben und die Kubernetes Node müssen wir herunter fahren, da wir eine Platte von dem PVE-Node als Hardware in die VM eingehangen haben, da wir in dem Kubernetes was dort Läuft ein rook-ceph laufen haben. Würden wir das nicht machen, hätten wir sonst ein ceph im ceph und somit eine unnötige Speicher-Redundanz.
Alle Linux-VMs die wir haben, sind mit cloud-init konfiguriert. Auch die Kubernetes-Node.
Das Upgrade haben wir auf der Linux-Konsole über apt durchgeführt.
Nach dem Neustart kam die frisch geupgradete PVE-Node mit einer Identitätskriese wieder ans leben, denn sie denkt nun, sie sei die erwähnte Kubernetes-Node. Die Node hat sich die korrekte IP genommen, hat jedoch scheinbar cloud-init Einstellungen aus der Kubernetes Node übernommen. Genau diese Kubernetes Node hat als einzige Node den cloud-init im ZFS der PVE-Node, da wir, wie erwähnt, die Kubernetes Node aufgrund der Hardware-Zugehörigkeit über die Festplatte zu der PVE-Node, nicht migrieren.
Wenn versucht wird cloud-init zu deaktivieren und über systemctl abzuschalten, ist es beim nächsten Boot wieder da und alle Einstellungen (z.B. Hostname wieder ändern) sind überschrieben worden. Zudem meldet sich die PVE-Node nicht korrekt bei den anderen an, somit kann ich auch nicht die cloud-init aus dem local-zfs in das ceph des PVE verschieben.
Warum greift sich die PVE-Node überhaupt die cloud-init Einstellungen aus dem zfs nach dem Upgrade? Warum ist cloud-init aktiviert nach dem Upgrade?