technically it is possible. but you should update the nodes to ideally run on the same version to avoid any issues long term.
If the ping isn't working between the nodes, you will have to check you network setup or provide a lot or information how things are set up and configured for us to help...
Check the Release notes for 8.0, especially regarding permissions/ACLs https://pve.proxmox.com/wiki/Roadmap#Proxmox_VE_8.0
You can now handle permissions to SDN zones and VNETs specifically. For all local vmbr interfaces you should see the default localnetwork zone.
Either hand out permissions...
UEFI I assume? You should be able to change the resolution in the UEFI settings. Alternatively, if you connect via RDP, the resolution set shouldn't matter that much.
ich persönlich würde statt HW RAID auf ZFS setzen. Dann könnte man, aber das geht auch mit HW RAID, die 4 SSDs zu einem RAID10 verbinden. Wenn das keine grottigen Consumer SSDs sind, kann man da durchaus das System und die VMs drauf legen und hat vernünftige Performance.
Is the "Before Queue Filtering" what you want?
https://pmg.proxmox.com/pmg-docs/pmg-admin-guide.html#_features
Found under Configuration -> Mail Proxy -> Options
Wenn du vorhast, nur dieses RAID zu verwenden und dir die 100GB wohl zu klein sind, ist eine Neuinstallation wohl leichter jetzt, wo noch nichts drauf ist.
Alternativ, kein HW RAID, sondern SW RAID mit ZFS. Hier teilen sich die einzelnen ZFS Datasets den freien Platz dynamisch.
Mit ext4/xfs als Filesystem? Dann sollte da noch ein local-lvm daneben sein, das den restlichen Platz zugewiesen hat. In der Variante wird via LVM der Platz aufgeteilt.
Im Installer kann man die Aufteilung beeinflussen: https://pve.proxmox.com/pve-docs/pve-admin-guide.html#advanced_lvm_options
Das wird über die CPU Typen gemacht: https://pve.proxmox.com/pve-docs/pve-admin-guide.html#_cpu_type
Du kannst auch eigene CPU Typen definieren, wenn du es wirklich custom haben willst.
Was gibt denn ceph -s zurück?
Laufen die anderen Dienste im Cluster? MONs, MGRs, MDS' und OSDs?
Das Netzwerk für Ceph läuft auch noch? Evtl eine große MTU konfiguriert? Falls ja, gehen große Pakete auch noch darüber?
ping -M do -s 8972 {target host}
What CPUs doe the nodes have? Are the BIOS settings set to max performance / low latency? Maybe the vendor has some guides on that too.
Did you set a target_ratio for the pool? -> what is the current pg_num of the pool?
10 Gbit might be one bottleneck as well, overall with fast enough SSDs...
With a 3rd party tool this might be possible, but definitely something that needs to be tested. For example Veeam Backups. But, since different hypervisors will show the guest OS a slightly different virtual hardware setup, this process might not be as smooth as you would want it to be.
Eine Live Migration (ob remote oder nicht) schreibt neue Daten in Quell und Ziel Diskimages während der Rest im Hintergrund gesynct wird. Sobald das Diskimage transferiert ist, wird der State (RAM, CPU) der VM übertragen, bis das Delta klein genug ist, dass der Wechsel auf die Ziel VM in <100 ms...
How are the repositories configured? Please run apt update and post the output inside of tags (or use the editor buttons). As otherwise the output is hard to read
Wenn es kürzer sein soll und eine live-migration keine option ist, evtl. mit 2 PBS Instanzen?
Lokaler PBS -> remote sync. Im Hntergrund laufen lassen, bis ein manueller Remote Sync zur neuen Location direkt nach einem Backup in akzeptabler Zeit fertig ist.
Auf der Quell VM alle Dienste Stoppen...
You can use the default Ceph tools to modify the crush map, though if your intention is only to separate on the device class, individual crush maps are overkill.
Make sure you have the device classes assigned correctly. You can use custom device classes as well!
Then you can create new rules...
If you haven't seen it yet, the https://pve.proxmox.com/wiki/Migrate_to_Proxmox_VE page has a section where the most important concepts are explained with deep links to the admin guide.
That directory is located inside the LVM of the OSD and is mounted as a tmpfile. It first needs to be made available. If that failed for some reason, you could run ceph-volume lvm activate --all
It will scan for existing OSDs and will prepare and start them.
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.