I have the same problem installing a CentOS based Nethserver VM (https://www.nethserver.org/) on proxmox.
After settup the it hangs at "Booting from Hard Disk..." and consumes 100% of given CPUs.
Version: pve-manager/6.2-6/ee1d7754 (running kernel: 5.4.41-1-pve). Dell T20, all VT-settings...
I hav e to resize the rpool an an existing installation which is on sda:
So I did:
zpool create rpoolnew /dev/sdb
zfs snapshot -r rpool@copy
zfs send -R rpool@copy | zfs recv rpoolnew -F
Now I want to boot into the debug mode of the proxmox 6.2 DVD and rename rpoolnew to rpool and make it...
Danke für den Hinweis. Warum ist tmp nicht standardmäßig ein tmpfs? Es wäre gut, wenn man das automatisch oder zumindest als option aktivieren könnte, denn im Nachhinein geht es nicht ohne physischen Zugriff auf den Rechner, da man eine Rescue-CD booten muss um /tmp zu löschen (oder etwa doch?)
Wie legt der Installer den jetzt den Swapbereich an? Auf einer separaten Partition? Die könnte ja auch mit einem bei jedem Neustart neu erstellten Kennwort verschlüsselt werden. https://wiki.archlinux.org/index.php/Dm-crypt/Swap_encryption
Wie gefährlich der ZVOL-SWAP-Problem wirklich ist, ist...
Der Swapbereich ist derzeit unverschlüsselt. Es wäre aus Sicherheitsgründen sinnvol, das swap-ZVOL beim Start mit einem Zufallskennwort zu erstellen und zu verschlüsseln. Dann können auch bei Plattendiebstahl keine sensitiven Informationen insbesondere keine Kennwörter ausgelesen werden. Dies...
Ich lösche geade einen großes zfs-Dateiensystem eines Containers, was anscheinend größtenteils im Hintergrund ausgeführt wird. Schon da gab es in der Proxmox-Console einen Timeout und man konnte den "zfs destroy" Befehl noch danach in der Prozessliste für einige Zeit sehen. Dann verschwand er...
Was ist jetzt also konkret die Lösung? Namen in /etc/default/zfs ist schwierig, dann man dann keine VMs mehr anlegen kann, deren pool gleich einem Namen vom proxmox-host ist, oder?
Wo setzt man volmode? Innerhalb der VM? Und welche Nachteile hat das?
There is always a workaround for things a software should do automatically. The change is trivial and would avoid having to manually reonfigure things.
I am not talking about live migration, where some feature in QEMU might be missing, but about a migration of VMs in the same way as with running LXC containers, i.e. by automatically stopping, replicate, restarting the vm. It works in LXC and would work with VMs also, but proxmox doesn't allow...
What about the other questions:
1) Why is it possible to warm-migrate LXC but not VMs? The process should be the same
2) What about the improvement "replicate-shutdown-replicate-startup" to minimize downtime?
3) What about the possibility to use migrate a paused or suspended VM/LXC?
Currently migration of a VM with replication job is not possible but with a LXC-container it is (although only cold migration). Why? Proxmox should do the same thing with VMs as with LXCs: shutdown at local server, replicate, startup at remote server.
Improvement: To minimize the migration also...
Could you explain? I also have the problem and wanted to use zfs-zed, znapzend oder Sanoid.
The ability to have multiple snapsots with generation schedules like znapzend ist crucial. Almost everything is there, but unfortunately, it seems is not compatible currently with proxmox.
Wird der Timeout denn in Zukunft angepasst? Das sollte er? Ich habe auch Replikationsaufträge, die ab und zu mit einem Timeout beim "zfs snapshot" fehlschlagen. Die Timeouts der zfs-Befehle scheinen alle zu knapp bemessen zu sein. Es stellt sich sowieso die Frage, in wiefern da überhaupt ein...
Ich habe die Replikation von einer VM entfernt. Dabei muss auch das entfernte Replikat entfernt werden. Hier scheint aber ein zu kurzer Timeout konfiguriert zu sein, denn es gibt einen Timeout-Fehler. Ich würde das als Bug einschätzen, denn das Löschen eines ZFS-Vols kann durchaus schon mal ein...
Wenn man VMs einrichtet, die selbst ein ZFS-Dateisystem haben, erkennt "zpool import" diese auf dem Proxmox Hosts. Kann man das verhindern, z.B. durch eine Einstellung, dass virtuelle Geräte oder solche mit zd* ignoriert werden?
root@xxx:~# zpool import
pool: data2
id...
Der Dienst verweigert den manuellen Start. Ich habe die Konfiguration in /lib/systemd/system/pve-guests.service geändert und dann konnte ich durch "systemctl restart pve-guests.service" den Start der VMs anstoßen. Nach dem Boot muss ich also erst die Festplatten entschlüsseln und dann den Dienst...
Ich habe im Pool einen Proxmox-ZFS-Pool vmdata1,vmdata2 usw. angelegt, um verschiedene Gruppen von VMs trennen zu können und verschiedene ZFS-Einstellungen machen zu können. Diese sind alle als ZFSPOOL in Proxmox angelegt. Zusätzlich ein DIR vmdatadir, um ISO-Images und Backups zu speichern. Das...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.