Wir haben erfolgreich von cluster26 -> cluster27 migriert.
Zurück geht es aber nicht:
2022-03-22 10:51:19 starting migration of VM 100000 to node 'cluster26' (192.168.0.26)
2022-03-22 10:51:19 found local disk 'zfs_local:vm-100000-disk-0' (in current VM config)
2022-03-22 10:51:19 copying local...
"du musst von allen nodes zu allen anderen nodes ohne interaktion ssh machen koennen: ssh <IP> oder ssh <hostname> sollte direkt einloggen."
das kann ich. ich kann mich problemlos von zb cluster26 auf cluster27 per ssh IP und HOSTNAME einloggen und umgekehrt.
Wir haben einen node cluster27 unserem Cluster hinzugeführt (Proxmox 7.1-10)
Wenn wir uns in das GUI über cluster27 einloggen klappt alles.
Wenn wir uns aber über das GUI von cluster26 (Proxmox 6.3 ) einloggen und dann eine Konsole von einer VM auf cluster27 öffnen wollen, erhalten wir den...
we lost one server of 6 nodes cluster. after reboot the node:
root@cluster24:~# pvecm status
Cluster information
-------------------
Name: cluster
Config Version: 29
Transport: knet
Secure auth: on
Quorum information
------------------
Date: Tue Nov 23...
We have the same problem with moving the datastore.
how can we fix it?
TASK ERROR: zfs error: cannot create 'zfs/subvol-122-disk-0': use 'none' to disable quota/refquota
Kann damit -wenn ungepatchet- ein "root User" aus seinem LXC ausbrechen und so den Hypervisor (Proxmox) kompromittieren?
Wir lassen unsere VMs (LXC) als unpriviligierten Container laufen.
ok we change the type of SCSI Controler to LS and back to VirtIO, now with rescue boot we can do
vgchange -ay
but it says refusing activation of partial LV centos/root
reboot centos7 normal still hung on dracut with
/dev/centos/root not found
same error. suddenly we yust reboot proxmox and than this error occurse.
what can we do?
centos7 rescue did not find any disk.
we move the disk to qcow2 format and mount it from the proxmox host (/var/liv/vz/....)...partitions are there and data are there.
btw:
many thanks
in rescue
blkid did...
Liebe Community,
wir haben einen BareMetall Server mit 2 NICs.
Die eine ist im Uplink eno1 und die 2. ist ein weiteres Netz. eno2
Wir haben im Proxmox
eno1 / vmbr0 zu diesem
eno2 / vmbr1 zu diesem.
Nun benötigen wir noch ein Interface
eno2.11 um darauf eine vmbr2 anzulegen...
thats the case. we like do add a external InfluxDB Server. But we want not to "crash" the cluster if the influxDB Server is down (f.e. by maintenaince or other errors).
Thanks, Yes we do. Like described it works.
BUT:
proxmox node:
eth0 -> vmbr0 with its unique public ip of proxmox node like 100.100.100.5 (not connectet to vRACK, MAC OVH mac binding direct to this hardware server).
eth1 -> vmbr1 is vRACK interface ip 192.168.1.5.
Other public ip block...
Thanks. Our setup works. But we like to vlan our additional public IPs.
Proxmox cluster is 192.168.1.0/24 with 6 Nodes connectet via vRACK to each other. Corosync works on that network.
Because "the problem" is:
we create a VM with NIC eth0 on vmbr1. normaly the customer get an ip of our public...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.