Search results

  1. pvps1

    Private server cluster configuration suggestion to use with Proxmox VE with SDS and NAS

    _if_ you are going with NAS, I'd prefer a simple linux host with nfs and md raid. this way you have total control (eg can just take a disk and access data everywhere in case of failure, no prorietary controllers) and get more performance:price another advantage is simplicity which makes it...
  2. pvps1

    PMG vs. Kommerzielle Anti-Spam Produkte

    Danke, hilft mir sogar sehr...
  3. pvps1

    Verständnisfrage zu Cluster?

    das ist nicht richtig. du brauchst nicht zwingend einen netzwerk storage für einen Cluster. manche dinge wie ha oder live Migration funktionieren dann nicht, aber einen custer hast du ja trotzdem.
  4. pvps1

    Tausch aller OSDs

    wir haben das auch so gemacht um die Kapazitäten zu erhöhen.
  5. pvps1

    PMG vs. Kommerzielle Anti-Spam Produkte

    die Frage würde ich gerne um Antivirus ergänzen. PMG unterstützt nach erster kurzer Recherche nur Avast. Deren Websites sind bzgl Linux Unterstützung aber nicht sonderlich vertrauenserweckend. Grund für die Frage ist die Erkennungsrate von clamav
  6. pvps1

    Using multiple ethernet ports for VMs as opposed to one?

    one usecase: bonding is the way to get redundancy in production scenarios you would have your nics connected to different switches (within a stack) so parts can fail or reboot (e.g. for firmware upgrades) without interruption of services
  7. pvps1

    Deleting a VM by mistake - How to recover it

    for future forensic/recovery it is important, that you stop write access to the disks involved. so stop the storage or pve host. depending on your storagetype and filesystems there are different tools to recover deleted files. if the data is important you should consult professional...
  8. pvps1

    If you are unsure why 'proxmox-ve' would be removed.....

    remove all debian kernel there are dependencies (firmware iirc) that trigger the removal of pve
  9. pvps1

    Disable Root Account

    you can not imo. what are you trying to achieve by deleting?
  10. pvps1

    lvm

    you have to resize your vg, your lv and finally the filesystem. there are a lot of howtos about lvm on the net. search for resize lvm...
  11. pvps1

    Proxmox Ceph Cluster - No Raid

    if you have a hw raid, use it. its not recommended as stated above. the official way to go with proxmox is zfs. one other possibility is mdraid I share the opinion of t. that hw raids are pain. with zfs and ceph you must not use it other than jbods/hba mode. and if course you can mix the...
  12. pvps1

    Proxmox Ceph Cluster - No Raid

    I dont understand the question.... you have a raid system. so if a disk fails, you have to replace it of course.
  13. pvps1

    Proxmox Ceph Cluster - No Raid

    https://wiki.debian.org/DebianInstaller/SoftwareRaidRoot
  14. pvps1

    Proxmox Ceph Cluster - No Raid

    md raid or software raid is a default ability of the debian installer
  15. pvps1

    Proxmox Ceph Cluster - No Raid

    you can install debian with software raid and proxmox on top of it.
  16. pvps1

    Cluster mit Ceph auf neue NTP Server umziehen

    das würde ich jetzt nochmals nachlesen, aber so aus dem Gedächtnis setzt auch systemd-timesyncd aus Gründen die Zeit nicht hart in grossen Sprüngen. Der drift der erlaubt ist, ist sicher auch konfigurierbar. ohne Gewähr... ich würde mal nachlesen ob o.g Verhalten auch bei service restart...
  17. pvps1

    Linux system time temporally jumps

    ntp on (redundant, non virtualized) firewall. they sync to ntp pool. internal firewall only allowed ntp source
  18. pvps1

    Cluster mit Ceph auf neue NTP Server umziehen

    vlt verstehe ich das problem ja nicht, aber was spricht dagegen die Änderungen auf allen hosts zu machen und dann zb mit clusterssh einen service restart (systemd nehm ich an) zu machen? wenn der alte ntp auch akkurat ist, sehe ich kein problem ( imo kannst du dann auch host für host umstellen )
  19. pvps1

    [SOLVED] /root/.ssh/authorized_keys overwritten

    if you love your cluster, /etc/pve is a path that should be included in your backup....
  20. pvps1

    find the Guest with highest IO

    quick n dirty / live: run iotop on hosts and take look. on the long run: your monitoring should be able to show this data. we are using zabbix e.g. that could show graphs of io within any time range. any other monitoring should do. if you just want graphs take a look at e.g. munin (or others)