Hallo @all,
ich habe einen 5 Node bei dem ein Node gestorben ist, die SSD ist tod. Leider ist auch das Backupimage kaputt und so muss ich den Node von einer anderen Maschine clonen. Ich kann nicht neu installieren weil der Cluster mit der Software vom Installationstag läuft.
Es läuft ein CEPH Speicher darauf und einige VM's. Ich würde die OSD's und den Node aus dem laufenden Cluster entfernen, welche Files muss ich alle löschen damit ich den geclonten Node5 als Node4 wieder neu rein hängen kann?
root@node1pv:~# pveversion --v
proxmox-ve: 4.2-64 (running kernel: 4.4.16-1-pve)
pve-manager: 4.2-18 (running version: 4.2-18/158720b9)
pve-kernel-4.4.6-1-pve: 4.4.6-48
pve-kernel-4.4.8-1-pve: 4.4.8-52
pve-kernel-4.4.16-1-pve: 4.4.16-64
lvm2: 2.02.116-pve3
corosync-pve: 2.4.0-1
libqb0: 1.0-1
pve-cluster: 4.0-44
qemu-server: 4.0-86
pve-firmware: 1.1-9
libpve-common-perl: 4.0-72
libpve-access-control: 4.0-19
libpve-storage-perl: 4.0-57
pve-libspice-server1: 0.12.8-1
vncterm: 1.2-1
pve-qemu-kvm: 2.6.1-2
pve-container: 1.0-73
pve-firewall: 2.0-29
pve-ha-manager: 1.0-33
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u2
lxc-pve: 2.0.4-1
lxcfs: 2.0.3-pve1
cgmanager: 0.39-pve1
criu: 1.6.0-1
novnc-pve: 0.5-8
zfsutils: 0.6.5.7-pve10~bpo80
ceph: 0.94.9-1~bpo80+1
DELETE alle Files in den Ordnern:
/etc/ceph/*
/etc/corosync/*
/etc/pve/*
/var/lib/ceph/*
/var/lib/corosync/*
/var/lib/pve-cluster/*
LVM sieht aus als würde er beim Hochfahren zusammen bauen weil eine pve-config ist unter /etc/lvm/backup drinnen? Im LVM ist nur das System, die VM's liegen im CEPH.
Danach noch alle Node5 unter /etc in Node4 ändern, IP anpassen und dann neu in den Cluster aufnehmen?
Danach die OSD's neu anlegen und auf den fertigen reorg warten.
Zusätzliche Tips?
ich habe einen 5 Node bei dem ein Node gestorben ist, die SSD ist tod. Leider ist auch das Backupimage kaputt und so muss ich den Node von einer anderen Maschine clonen. Ich kann nicht neu installieren weil der Cluster mit der Software vom Installationstag läuft.
Es läuft ein CEPH Speicher darauf und einige VM's. Ich würde die OSD's und den Node aus dem laufenden Cluster entfernen, welche Files muss ich alle löschen damit ich den geclonten Node5 als Node4 wieder neu rein hängen kann?
root@node1pv:~# pveversion --v
proxmox-ve: 4.2-64 (running kernel: 4.4.16-1-pve)
pve-manager: 4.2-18 (running version: 4.2-18/158720b9)
pve-kernel-4.4.6-1-pve: 4.4.6-48
pve-kernel-4.4.8-1-pve: 4.4.8-52
pve-kernel-4.4.16-1-pve: 4.4.16-64
lvm2: 2.02.116-pve3
corosync-pve: 2.4.0-1
libqb0: 1.0-1
pve-cluster: 4.0-44
qemu-server: 4.0-86
pve-firmware: 1.1-9
libpve-common-perl: 4.0-72
libpve-access-control: 4.0-19
libpve-storage-perl: 4.0-57
pve-libspice-server1: 0.12.8-1
vncterm: 1.2-1
pve-qemu-kvm: 2.6.1-2
pve-container: 1.0-73
pve-firewall: 2.0-29
pve-ha-manager: 1.0-33
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u2
lxc-pve: 2.0.4-1
lxcfs: 2.0.3-pve1
cgmanager: 0.39-pve1
criu: 1.6.0-1
novnc-pve: 0.5-8
zfsutils: 0.6.5.7-pve10~bpo80
ceph: 0.94.9-1~bpo80+1
DELETE alle Files in den Ordnern:
/etc/ceph/*
/etc/corosync/*
/etc/pve/*
/var/lib/ceph/*
/var/lib/corosync/*
/var/lib/pve-cluster/*
LVM sieht aus als würde er beim Hochfahren zusammen bauen weil eine pve-config ist unter /etc/lvm/backup drinnen? Im LVM ist nur das System, die VM's liegen im CEPH.
Danach noch alle Node5 unter /etc in Node4 ändern, IP anpassen und dann neu in den Cluster aufnehmen?
Danach die OSD's neu anlegen und auf den fertigen reorg warten.
Zusätzliche Tips?