@ivenae,
das ist ein sehr pragmatischer Ansatz. Gerade bei akuter Knappheit ist das Eliminieren von Variablen (Ballooning, KSM) oft zielführender als das Hoffen auf deren Effizienz. Wie @Falk R. bereits anmerkte, sind die PVE-Defaults oft...
@bufalla,
ja, der SR650 ist grundsätzlich voll kompatibel und ein sehr solides Arbeitspferd für Proxmox VE. Die CPU und vor allem die 256 GB RAM sind eine hervorragende Basis.
Hier ein paar spezifische Anmerkungen zu deinen Komponenten:
1...
Same issue here:
we had a perfectly working setup in PVE8 + OVS.
With PVE9 (fully updated) the load on the VM explode suddenly, the share are unaccessible and we have to reboot the VM).
The setup is as this:
- A bare metal NFS server (debian 13...
@IsThisThingOn,
du triffst den Nagel auf den Kopf. Das ist der klassische "Perfect Storm": Der Windows-NFS-Client ist per se ineffizient (Locking/Sync), und das dann kombiniert mit VM-Disk-Images auf einem ZFS-Dataset (CoW-on-CoW) potenziert die...
@noidea,
@Ernst T. bezieht sich auf die Werte aus deinem Screenshot unter Knoten 'proxmox' -> Disks -> LVM-Thin.
Dort findest du den Eintrag data. Die Rechnung ist simpel: Größe (Gesamtkapazität des Pools) minus Verwendet (tatsächlich...
Hallo @SteffenDE,
das beschriebene Verhalten deutet stark darauf hin, dass durch die geänderten MAC-Adressen die Cluster-Kommunikation gestört ist und Zertifikate nicht mehr passen.
Prüfe mittels ip a, ob die Namen der Netzwerkschnittstellen...
Hi all,
I ran TrueNAS 24 on Proxmox 8 without any problems. I tried to do a new installation of TrueNAS 25 on Proxmox 9, without success so far.
Hardware: Terramaster F4-424 Max
I configured a VM like this
Starting up the VM for installation...
Hallo,
ich musste in meinem Cluster (2 Nodes + externem Quorum) einen Node tauschen. Identisches Systeme, Platten umgebaut und wieder gestartet. Grundsätzlich läuft der Cluster auch wieder, aber:
- Seitdem poppt laufend das Login Fenster auf...
Sorry, I misunderstood. In that case you can leave it.
Sure. So Proxmox uses the good default of 16k volblocksize.
That means that all your VMs ZFS raw disks, are offered 16k blocks.
Now lets look how ZFS provides 16k blocks.
You have RAIDZ1...
Hi I have Proxmox running on a mini pc with no other operating system. It's been running for around 3 years with no problems, I upgraded to 9 around a month ago again with no problems. For around a week now Ive been waking up every morning to...
Is a good practice to separate Ceph data traffic in another interface or almost another VLAN and use 10 Gb or more for this traffic, You should keep in mind that modern SSDs have a very high transfer rate and need a network to match this...
Is not a critical error, blueStore has recovered the failure, and the cause can be a puntual problem with the network, or some hardware element (controller, disk) but it appears to be for a low response of these OSD.
To remove the warning:
ceph...
Hello,
I have a privileged LXC-103 that acts as fileserver.
The files are stored on a ZFS subvol and provided to the users (family) by NFS.
root@pve2:~# cat /etc/pve/lxc/103.conf
...
features: mount=nfs;cifs,nesting=1
hostname: srv
mp0...
Sorry, I misunderstood. In that case you can leave it.
Sure. So Proxmox uses the good default of 16k volblocksize.
That means that all your VMs ZFS raw disks, are offered 16k blocks.
Now lets look how ZFS provides 16k blocks.
You have RAIDZ1...
Super. Vielen vielen Dank Euch allen für Eure tolle Unterstützung. Ich habe wirklich viel gelernt. Abschliessend würde ich gerne noch wissen, wo ich die Info mit dem Restspeicher ablesen kann. Das ist mir nämlich nach wie vor ein Rätsel.