Hi, I can't find anything here and in the docs and I noted that my rootdisk is slowly filling up with ZFS rpool snapshots / rollback points.
I admit I never had to use them, and I'm sure they are useful .. But I don't need rollback to before Christy and I haven't found a way to configure a...
Hi, I know this is not directly related to Proxmox rather than to Ceph, but I'll give it a try.
In my home lab I have 1 Proxmox node (7.latest), and configured Proxmox ceph (Pacific) on it with 2 OSD
I have 2 more non Proxmox hosts I would like to install ceph (?cephadm?) on and add those to...
ok ich glaube ich habs. Warning das ist echt hacky und ich sehe schon am Montag die Proxmox Jungs im Kreisel kotzen, wenn die das sehen.
der Ordner /etc/pve/nodes/hostname wird vom pve-cluster service erstellt / gemanaged
Pure Vermutung erstellt durch daten der /var/lib/pve-cluster/config.db...
Ich teste gerade ein wenig rum ..
der host ist zwar renamed aber ich schaffe es nicht die Konfigurations Dateien in den neuen Ordner zu kopieren.
das erstellen des ordners mit gestopptem PVE geht nicht.
mkdir -p /etc/pve/nodes/alterhostname
mkdir -p /etc/pve/nodes/neuerhostname
pack in beide ordner deine backup daten rein
edit: vergiss das hier das ist muell
Ich hab gerade mal schnell getestet.
vi /etc/hosts
vi /etc/hostname
mit dem neuen hostname ..
service pve-cluster restart
hat nen fehler gebracht also einfach rebooted und proxmox kam mit dem neuen hostname einfach hoch ..
Damals gabs die /var/lib/pve-cluster/config.db glaube noch nicht ..
Hi, die Anleitung ist gut und gerne 6 Jahre alt und da hat sich evt eine Menge geändert ..
Was passiert denn, wenn du die Dateien in den richtigen Ordner kopierst und dann neu startest?
rootdelay=30 didn't do the job
I got it booting by
edit /etc/default/grub and changed GRUB_CMDLINE_LINUX_DEFAULT="rootdelay=60 quiet")
run # update-grub
edit /etc/default/zfs, set ZFS_INITRD_PRE_MOUNTROOT_SLEEP='4',
run # update-initramfs -k 5.0.15-1-pve -u
that finally booted to 5.x...
https://forum.proxmox.com/threads/proxmox-ve-5-1-released.37650/page-2#post-186927
was the issue some while ago and I don't recall there was ever any statement what the issue really was
"(i.e., to find out whether boot related issues are caused by the switch from 4.10 to 4.13 or from ZFS 0.6.5...
That's new, is this from the upgrade?
root@proxmox:~# zpool import
pool: zroot
id: 15023591304253786846
state: UNAVAIL
status: The pool was last accessed by another system.
action: The pool cannot be imported due to damaged devices or data.
see...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.