"KI" (es gibt bisher keine künstliche Intelligenz! Es gibt nur Sprachmodelle.) ist gekommen um zu bleiben. Eine Kennzeichnungspflicht erscheint plausibel, ist aber weder mittel- noch langfristig durchsetzbar und vor allem nicht wirklich überprüfbar.
Mit Hilfe von "KI" generierter Content wird...
In the first screenshot we see enp7s0 and enp8s0 - being "DOWN", please check the actual cables and the LED on the other end of the cable.
In the second screenshot we see you've configured enp3s0. Different names --> it can not work...
I can confirm this.
My virtual testcluster was on 9.1.5 and is on 9.1.6 now. I did upgrade without reboots. My logged in session (Linux/Librewolf) shows "0" instead of checkboxes as you describe.
In-browser logout/login and/or shift-reload is not sufficient. Will reboot the cluster now...
Syncoid is a tool for "ZFS send/receive". It does work on a PVE installation but it has nothing to do with PVE --> it lacks integration.
Regarding LVM: see the last sentence of post #2 ;-)
Are you sure posting the same text with zero new information and in multiple old threads will help you?
https://forum.proxmox.com/threads/host-reboots-during-backups.154301/post-839928
You can limit ARC: https://pve.proxmox.com/wiki/ZFS_on_Linux#sysadmin_zfs_limit_memory_usage
(While the ARC has the capability to shrink on demand, this mechanism is often to slow for a sudden request --> OOM)
Das hängt von der Definition von "ohne Weiteres" ab. Für Dell Workstations gibt es oft ohne weiteres passende Rack/Rail-Montagesätze - die natürlich als Zubehör explizit mitbestellt und bezahlt werden müssen.
Für den Bastler ist möglicherweise eher ein einfacher Einlegeboden das Mittel der Wahl.
First let me say this: I have zero experience in that large scale setups.
It depends on "k+m" of course. It seems to be a good idea to have less than m OSDs on each single node. If you lose one node you should not lose m OSDs, but one less.
Let's say I have ten servers with 30 OSD each, to...
In my understanding usually the failure domain is "host". I need to be able to shutdown/reboot one node for maintenance. And I want everything to stay alive when (not: if) one node has any kind of problem.
You will lose three or four OSDs if any node dies. This implies definitively data loss...
Ohne konkrete Zitate der Fehlermeldungen ist eine Antwort schwierig. Was genau wolltest du tun? Was hast du dementsprechend gemacht? Was hattest du erwartet? Was geschah stattdessen? Bitte jeweils den kompletten Befehl und die komplette Antwort vom System hier posten ;-) (Und zwar bitte in...
The usual boot process uses the BIOS firmware to read the very first blocks of the operating system. This is before even the "initrd"/"initramfs" is available = "pre-boot".
While boot devices may be local hardware and network devices with some different flavors of well established network-boot...
I would expect this behavior.
And yes, the ARC only gets actually used when ZFS recognizes relevant read pattern by watching the MRU/MFU counters. (--> "warm up". Newer systems may reload the ARC on boot from disk though...)
Es gibt natürlich zahlreiche valide Ansätze. Ich verwende (im Homelab) "Zamba": https://github.com/bashclub/zamba-lxc-toolbox. Damit bekommt man einen ausgereiften AD-kompatiblen Fileserver, der für die Windows-Nutzer beispielsweise die regelmäßig erstellten Snapshots via "Vorherige...
Yes, that's the culprit.
I've been there once. The lesson I learned was to only modify the structure of a cluster when all nodes are online :-)
The workaround is to make corosync.conf editable. As that node has not quorum you need to mount the configuration database locally and edit the file...
Just restore the VM of your choice on the other node. The storage type on the other node does not have to be the same as it was on the source. The result is basically a "replicated" VM from/to different filesystems ;-)
The are CLI tools available, so you can script the whole process to...
Hinsichtlich live-Migration, ja.
Richtig, der ist ja gerade kaputtgegangen.
Naja, wie in #2 schon erwähnt: du verlierst die Daten seit der letzten Replikation.
Aber ja, auf dem überlebenden Node startet HA diese VM neu. Automatisch!