Das Stichwort ist Buffer-Cache-Kohärenz (bzw. englisch "cache coherency").
Kurz zusammengefasst: Jeder Linux-Kernel hält Dateisystem-Metadaten (Inodes, Verzeichniseinträge, Allokationstabellen) und Dateiinhalte im RAM als Page Cache vor. Ein...
If by redundancy you mean disk fault tolerance, the higher the value after "raidz" the higher the fault tolerance. In practice, raidz2+ (never use single parity raidz unless prepared to lose the pool at any time)
performance= striped mirrors...
I though the other thread explained that (stripes of) mirrors have better read performance and never worse redundancy. If you want more redundancy and more (read) performance then a 4-way mirror has quadruple the read performance and triple the...
RAID5 (with BBU) is almost, but not quite, entirely unlike RAIDz1 (with drives without PLP). RAIDz1/2/3 is not good for VMs but can give you more usable storage (but padding can be terrible for space)...
I can confirm this.
My virtual testcluster was on 9.1.5 and is on 9.1.6 now. I did upgrade without reboots. My logged in session (Linux/Librewolf) shows "0" instead of checkboxes as you describe.
In-browser logout/login and/or shift-reload is...
@nhh,
nein, unterschiedliche Storage-Namen sind hier keine Option — die Replikation erfordert den gleichen Storage-Namen auf beiden Nodes, sonst funktioniert sie nicht.
Die Anzeige im Datacenter-Summary ist einfach so. Schau dir den...
Syncoid is a tool for "ZFS send/receive". It does work on a PVE installation but it has nothing to do with PVE --> it lacks integration.
Regarding LVM: see the last sentence of post #2 ;-)
Stimmt, danke für die Korrektur — LVM-Thin ist nur lokal nutzbar und damit für einen Cluster mit Shared Storage keine Option. Für lokalen Speicher ohne HW-RAID ist ZFS tatsächlich die bessere Wahl, allein schon wegen Checksummen und...
LVM-thin kann man aber nicht als shared storage in clustern nutzen. Als lokaler Speicher natürlich schon, etwa bei einen HW-RAID. Wenn man das nicht hat, würde ich dafür aber eher ZFS nehmen
Greentigs,
I have put a Proxmox training manual together for my team (and others) and I would like to offer it here for review/use by the community. This is not intended to be a technical deep-dive, rather a practical point-to-point to help...
Laut Aussage eines Proxmox Entwicklers hat man darüber schon nachgedacht und ist zum Schluss gekommen, dass das konterproduktiv ist:
- Es gab schon früher mal eine Möglichkeit zu spenden, die dabei entstehenden Einnahmen (bzw. deren Mangel)...
Although they were about replicated pools (so no ec) following reads might serve as a hint why (outside of experiments/lab setups) it's not a good idea to go against the recommendations...
Are you sure posting the same text with zero new information and in multiple old threads will help you?
https://forum.proxmox.com/threads/host-reboots-during-backups.154301/post-839928
No no no. You got your math wrong.
To achieve the same availability as EC with k=6 and m=2 you need triple replication (three copies) meaning a storage efficiency of 33%. It is rarely necessary to go beyond 4 copies.
You can limit ARC: https://pve.proxmox.com/wiki/ZFS_on_Linux#sysadmin_zfs_limit_memory_usage
(While the ARC has the capability to shrink on demand, this mechanism is often to slow for a sudden request --> OOM)
Ich glaub ich habe die Lösung.
Habe gerade mal bei der VM die MTU auf 1500 begrenzt und siehe da, ich komme mit allen Protokollen auf alle PVE/PBS. Bleibt also die Frage, was hat sich vor einem halben Jahr geändert?
@garfield2008,
Der tcpdump verrät es: Der TCP-Handshake klappt einwandfrei (SYN → SYN-ACK → ACK), aber danach kommt keine Daten-Übertragung zustande — der Server schickt nach 5 Sekunden ein FIN.
Das ist ein klassisches MTU-Problem. Schau dir...
@TErxleben,
PBS-Backups als Raw-Images extrahieren geht direkt mit dem proxmox-backup-client — ohne VM-Restore:
# Snapshots auflisten
proxmox-backup-client list --repository user@pbs-host:datastore
# Enthaltene Archives eines Snapshots...