Search results

  1. T

    CPU Type Model - VM

    Hi Markus, thanks for the answer. When setting up my clusters, I always make sure that they are all identical in terms of CPU & RAM. And "host" is enough to be able to use all CPU features? Why are there special settings for the CPU codename, when "host" is enough? Bye....
  2. T

    CPU Type Model - VM

    Hello, I have a server with an Intel Xeon Icelake CPU and now I want to configure the VMs according to the CPU. As far as I understand and have read, it increases the performance and you can also use the CPU features. Default kvmx64 is very limited. See image But I get errors when I start a...
  3. T

    3 node cluster - new storage

    Hi, I did it without any downtime. VM online migration to new zfs storage pool. Proxmox is great... Thanks...
  4. T

    3 node cluster - new storage

    Hello, I have a 3 node cluster with a zfs pool "SAN". Now I have to replace the storage and have the new LUNs on the server. Would create a new zfs pool "SAN2" How do I get everything on the new zfs pool "SAN2"? Can I simply remove the old "SAN" afterwards? Downtime is not a problem, I have 1...
  5. T

    [SOLVED] ZFS Snapshot destroy pve-1

    Danke... hab es gefunden unter /mnt/pve/nas Nach einem "umount /mnt/pve/nas" Da war wohl mal der NAS mount weg und er hat es lokal geschrieben. ;) Da muss man mal drauf kommen closed...
  6. T

    [SOLVED] ZFS Snapshot destroy pve-1

    Hi, ist halt nur die Frage wo die Daten liegen. Wenn ich im "/" suche finde ich gerade mal 75GB - wo ist der Rest ?
  7. T

    [SOLVED] ZFS Snapshot destroy pve-1

    NAME AVAIL USED USEDSNAP USEDDS USEDREFRESERV USEDCHILD rpool/ROOT/pve-1 133G 359G 0B 359G 0B 0B
  8. T

    [SOLVED] ZFS Snapshot destroy pve-1

    Hi, Ich nutze zfs snapshots für meine VM's und Container. Hatte am Anfang auch snapshots für "rpool/ROOT/pve-1" aktiv. Musste es aber deaktivieren, da mein root pool nur 2 Disk hat und zu klein wurde. Habe alle snapshots entfernt und es auf "false" gesetzt, am Ende bleibt ein großer übrig...
  9. T

    LACP - VLAN - tagging

    Hi, es will nicht - ich kläre das mal mit meinen Netzwerkern und melde die Lösung dann. Danke Dir....
  10. T

    LACP - VLAN - tagging

    Hi, wenn ich das so mache - ist immer noch alles "tot". Erst wenn ich im "vmbr0" wieder direkt "bond0" nutze bin ich online. Bis auf Backup LAN. auto lo iface lo inet loopback auto eno1 iface eno1 inet manual iface enp59s0f0 inet manual auto enp59s0f1 iface enp59s0f1 inet manual auto bond0...
  11. T

    LACP - VLAN - tagging

    Hi, das heißt - bridge-port beide "bond0" - bridge-vlan-aware no - bridge-vids - löschen Ist LACP als bond-mode richtig oder ehr auf "balance-xor" wechseln tcpdump -i bond0 -ve Da kommt soooo viel zurück, da was zu finden ......
  12. T

    LACP - VLAN - tagging

    Hi, früher hatte ich für jedes Subnetz ein eigenes Kabel am Server. Heute geht das wohl auch mit nur "einem" Kabel. Werde "ALT" - lol Das "Prod" LAN hatte zwei Kabel "eno1 + enp59s0f1" und ich habe ein "bond0" erstellt mit "active-backup" - dann "bond0" dem "vmbr0" gegeben - fertig. Backup LAN...
  13. T

    Shrink ZFS-Pool VM disk-1

    Hi, thx for help.... I solved it differently. I was too insecure. - shutdown vm - add new disk - start vm - add new disk - rsync all files - umount both disk - mount new disk on old mountpoint reboot - finish
  14. T

    Shrink ZFS-Pool VM disk-1

    Hi, my goal is to shrink a second disk "disk-1" from a Linux VM - without losing data. When creating at that time a "0" was too much - I would like to have the memory back. The disc is in a ZFS pool. Test with Windows VM: Windows boot disk reduced from 300G to 150G. So far everything has...
  15. T

    ZFS Disk verkleinern

    Servus, Mein Ziel ist es eine zweite Disk "disk-1" von einer Linux VM zu verkleinern - ohne Datenverlust. Beim anlegen damals war eine "0" zu viel - den Speicher hätte ich gern zurück. Die Disk liegt in einem ZFS Pool. Test mit Windows VM: Windows boot disk von 300G auf 150G verkleinert...
  16. T

    4-Node Cluster problem - pvestatd $max_cpuid

    Hi Thomas, I'm through the old logs. On 09/27/21 I did the proxmox update 6 to 7. From then on the errors appear. Could it have something to do with CVE-2018-3646 ? Sep 27 11:17:23 lpnode01 kernel: L1TF CPU bug present and SMT on, data leak possible. See CVE-2018-3646 and...
  17. T

    4-Node Cluster problem - pvestatd $max_cpuid

    Proxmox Node 2 Syslog Nov 24 22:33:54 lpnode2 pvestatd[6203]: Use of uninitialized value $max_cpuid in addition (+) at /usr/share/perl5/PVE/Service/pvestatd.pm line 277. Nov 24 22:34:02 lpnode2 pmxcfs[320485]: [status] notice: RRDC update error /var/lib/rrdcached/db/pve2-node/lpnode1: -1 Nov 24...
  18. T

    4-Node Cluster problem - pvestatd $max_cpuid

    Hi, proxmox gui syslog Nov 24 22:30:06 lpnode1 pvestatd[12573]: Use of uninitialized value $max_cpuid in addition (+) at /usr/share/perl5/PVE/Service/pvestatd.pm line 277. Nov 24 22:30:16 lpnode1 pvestatd[12573]: Use of uninitialized value $max_cpuid in addition (+) at...
  19. T

    4-Node Cluster problem - pvestatd $max_cpuid

    Hi, syslog events from 22:34 - 22:46 Nov 24 22:34:02 lpnode1 pmxcfs[2982123]: [status] notice: RRDC update error /var/lib/rrdcached/db/pve2-storage/lpnode1/nas: -1 Nov 24 22:34:02 lpnode1 pmxcfs[2982123]: [status] notice: RRD update error /var/lib/rrdcached/db/pve2-storage/lpnode1/nas...
  20. T

    4-Node Cluster problem - pvestatd $max_cpuid

    HA is enabled. I have two HA groups. Group A: Node 1 + 2 Group B: Node 3 + 4 All VM's are in HA mode and replication.

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!