I can confirm this.
My virtual testcluster was on 9.1.5 and is on 9.1.6 now. I did upgrade without reboots. My logged in session (Linux/Librewolf) shows "0" instead of checkboxes as you describe.
In-browser logout/login and/or shift-reload is...
@nhh,
nein, unterschiedliche Storage-Namen sind hier keine Option — die Replikation erfordert den gleichen Storage-Namen auf beiden Nodes, sonst funktioniert sie nicht.
Die Anzeige im Datacenter-Summary ist einfach so. Schau dir den...
Syncoid is a tool for "ZFS send/receive". It does work on a PVE installation but it has nothing to do with PVE --> it lacks integration.
Regarding LVM: see the last sentence of post #2 ;-)
Stimmt, danke für die Korrektur — LVM-Thin ist nur lokal nutzbar und damit für einen Cluster mit Shared Storage keine Option. Für lokalen Speicher ohne HW-RAID ist ZFS tatsächlich die bessere Wahl, allein schon wegen Checksummen und...
LVM-thin kann man aber nicht als shared storage in clustern nutzen. Als lokaler Speicher natürlich schon, etwa bei einen HW-RAID. Wenn man das nicht hat, würde ich dafür aber eher ZFS nehmen
Greentigs,
I have put a Proxmox training manual together for my team (and others) and I would like to offer it here for review/use by the community. This is not intended to be a technical deep-dive, rather a practical point-to-point to help...
Laut Aussage eines Proxmox Entwicklers hat man darüber schon nachgedacht und ist zum Schluss gekommen, dass das konterproduktiv ist:
- Es gab schon früher mal eine Möglichkeit zu spenden, die dabei entstehenden Einnahmen (bzw. deren Mangel)...
Although they were about replicated pools (so no ec) following reads might serve as a hint why (outside of experiments/lab setups) it's not a good idea to go against the recommendations...
Are you sure posting the same text with zero new information and in multiple old threads will help you?
https://forum.proxmox.com/threads/host-reboots-during-backups.154301/post-839928
No no no. You got your math wrong.
To achieve the same availability as EC with k=6 and m=2 you need triple replication (three copies) meaning a storage efficiency of 33%. It is rarely necessary to go beyond 4 copies.
You can limit ARC: https://pve.proxmox.com/wiki/ZFS_on_Linux#sysadmin_zfs_limit_memory_usage
(While the ARC has the capability to shrink on demand, this mechanism is often to slow for a sudden request --> OOM)
Ich glaub ich habe die Lösung.
Habe gerade mal bei der VM die MTU auf 1500 begrenzt und siehe da, ich komme mit allen Protokollen auf alle PVE/PBS. Bleibt also die Frage, was hat sich vor einem halben Jahr geändert?
@garfield2008,
Der tcpdump verrät es: Der TCP-Handshake klappt einwandfrei (SYN → SYN-ACK → ACK), aber danach kommt keine Daten-Übertragung zustande — der Server schickt nach 5 Sekunden ein FIN.
Das ist ein klassisches MTU-Problem. Schau dir...
@TErxleben,
PBS-Backups als Raw-Images extrahieren geht direkt mit dem proxmox-backup-client — ohne VM-Restore:
# Snapshots auflisten
proxmox-backup-client list --repository user@pbs-host:datastore
# Enthaltene Archives eines Snapshots...
The number of OSDs isn't relevant to a pool as long as it is larger then the minimum required by the crush rule. For example, If you have an EC profile of K=8,N=2 rule, you need a minimum of 10 OSDs DISTRIBUTED ACROSS 10 NODES. so 1 OSD per node...
@Johannes S hat die wichtigsten Punkte sehr gut erklärt. Ergänzend zur nachträglichen ID-Korrektur:
Der sauberste Weg ohne temporäre Platte ist zpool replace — du ersetzt die Platte quasi durch sich selbst, aber mit dem ID-Pfad:
# Erst die...
Jo Fachboden und dann quer reinlegen. Habe ich im Testlab mit 3x Lenovo P720 auch so gemacht. 4 kleine Eckwinkel mit Flansch drangeschraubt, dann rutscht auch nix.
Das hängt von der Definition von "ohne Weiteres" ab. Für Dell Workstations gibt es oft ohne weiteres passende Rack/Rail-Montagesätze - die natürlich als Zubehör explizit mitbestellt und bezahlt werden müssen.
Für den Bastler ist möglicherweise...
@UdoB Thank you for your suggestion!
I used the https://pve.proxmox.com/pve-docs/pve-admin-guide.html#pvecm_separate_node_without_reinstall - as a reference and was able to get the Corosync.conf files editable. Then i copied the conf file from a...