sendmail nutzt selbst zum verschicken auch smtp. Ursprünglich war sendmail der erste Mailserver, warum alle späteren Mailserver (darunter auch postfix) noch einen Befehl "sendmail" bereitstellen, damit ältere Programme damit zurecht kommen...
Sofern man SMTP konfiguriert, werden standardmäßig die Systemmails von postfix über das SMTP-Notificiationtarget verschickt, ohne dass man groß an Postfix rumbasteln muss...
Isn't this what happens when cloning with consumer NVMe?
kioxia kbg40zns256gb
IO Pressure Stall 60%
This doesn't happen with enterprise SAS.
husmm3280ass200
IO Pressure Stall 1.4%
Did you purchase an enterprise SSD?
*The above shows the...
Ja, genau.
Ich nehme einen meiner externen Emailprovider und lasse alle Email dort relayen.
Anleitungen dazu gibt es zuhauf, eine konkrete kann ich - ohne selber zu suchen - aber nicht nennen.
Postfix ist ein ausgewachsenes Mailsystem...
That's interesting as PVE uses an Ubuntu Kernel ;-)
Possible workaround as a last resort: install Debian Trixie first, then install PVE - https://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_13_Trixie - you would lose "OS on ZFS" though...
sendmail gehört (per Default) zu Postfix:
~# dpkg -S $(which sendmail)
postfix: /usr/sbin/sendmail
Wie sendmail mit dem eigentlichen Postfix kommuniziert ist mir gerade unklar - und egal ;-)
Wichtig ist, dass diese Konstruktion nur dann korrekt...
You have pools with different names. (( And this prevents replication which is really annoying :-( ))
Migration of running VMs allows me to select a specific storage on the target
Migration of LXC does not offer this to me
At the end...
Dein "allinkl" redet mit dem konfigurierten Emailserver, dazu hast du im Einrichtungsdialog deine Zugangsdaten eingegeben. Dieser Mechanismus funktioniert nur innerhalb des Proxmox-Kontextes.
"sendmail" ist eine lokal laufendes Programm, welches...
See also https://forum.proxmox.com/threads/fabc-why-is-proxmoxve-using-all-my-ram-and-why-cant-i-see-the-real-ram-usage-of-the-vms-in-the-dashboard.165943/
I do not know how many nodes you utilize. If you have only three of them: https://forum.proxmox.com/threads/proxmox-ceph-performance-with-consumer-grade-samsung-ssd.179948/post-834586
Supplementary: The prompt to do the emergency root login during boot is shown after another failure makes it unlikely the server will complete the boot process without administrator intervention. Logging in will give you a shell with enough...
Da ist schon der erste Fehler. RaidZ mit langsamen HDDs und Performant, das widerspricht sich komplett. Mit 4 HDDs im Mirror wirst du OK Performance haben, aber so eher Schneckentempo.
OK
Wenn du einen LVM Thin-Pool baust, ist das ein Block...
That's worst design possible. Beside the too cheap devices...
Look at one node: when one OSD fails, the other one on the same node has to take over the data from the dead one. It can not be sent to another node because there are already copies...
For once, AI is right :)
Any consumer drive will have low Ceph performance due to rocksDB and sync writes, but those drives in particular are terrible for anything but PC archiving purposes due to it's small SLC cache and very slow QLC nand...
While it's true that 3-nodes is the bare minimum for Ceph, losing a node and depending on the other 2 to pick up the slack workload will make me nervous. For best practices, start with 5-nodes. With Ceph, more nodes/OSDs = more IOPS.
As been...
Nice approach :-)
Even though you have redundant switches I would recommend to prepare a separate wire (not a virtual LAN, 1 GBit/s is sufficient) for one of your multiple corosync rings.
Disclaimer: your approach is multiple levels above my...