With Ceph, you need fast networking for your Storage, 10 Gbit should be the absolute minimum, better 25 or 40 Gbit.
Your data will be on all 3 nodes for redundancy, if one node fails you can still work, if 2 Nodes fail your ceph is no longer...
zpool-rename.md:
rpool is the original, zp_pve the new pool name
# Rescue System booten
zpool import rpool zp_pve -R /mnt -f
for i in proc sys dev run; do mount -o bind /$i /mnt/$i ; done
chroot /mnt
rm /etc/default/grub.d/zfs.cfg
sed -i...
You can of course do this, but unless you have a specific reason, it might not be such a good idea.
When you want to build a cluster, the pools must have the same name for migration to work.
Bei aktivierten HA bitte unbedingt einen zweiten (oder mehr) Corosync Link konfigurieren, sonst passiert genau das was hier beschrieben ist.
Und auf keinen Fall Corosysn und Storagenetz auf derselben NIC.
Siehe auch...