Search results

  1. U

    I recommend between 2 solutions

    With Ceph, you need fast networking for your Storage, 10 Gbit should be the absolute minimum, better 25 or 40 Gbit. Your data will be on all 3 nodes for redundancy, if one node fails you can still work, if 2 Nodes fail your ceph is no longer writeable. ZFS Replication works great for 2 Nodes...
  2. U

    Change zfs boot pool name

    zpool-rename.md: rpool is the original, zp_pve the new pool name # Rescue System booten zpool import rpool zp_pve -R /mnt -f for i in proc sys dev run; do mount -o bind /$i /mnt/$i ; done chroot /mnt rm /etc/default/grub.d/zfs.cfg sed -i s/quiet//g /etc/default/grub sed -i.bak...
  3. U

    Change zfs boot pool name

    You can change the pool name afterwards, but it is a bit of work
  4. U

    Change zfs boot pool name

    You can of course do this, but unless you have a specific reason, it might not be such a good idea. When you want to build a cluster, the pools must have the same name for migration to work.
  5. U

    Kritischer Ausfall – gleichzeitiger Reboot aller Nodes nach iSCSI-Verbindungsverlust (Proxmox + HA + Softdog)

    forum.proxmox.com/threads/adding-a-secondary-corosync-network-for-failover-setting-the-priority-when-adding-a-2nd-corosync-network-to-upgrade-to-a-redundant-ring-network.99688/
  6. U

    Kritischer Ausfall – gleichzeitiger Reboot aller Nodes nach iSCSI-Verbindungsverlust (Proxmox + HA + Softdog)

    Haben Sie mehrere redundante Ringe im Corosnc konfiguriert? in /etc/corosync/corosync.conf
  7. U

    ZFS Disk Replication - "command 'zfs snapshot (...)' failed: got timeout" NUR am Wochenende

    Selbes Problem, leider nicht nur am WE ;) Kann es am WE ein ZFS Scrub sein?
  8. U

    [TUTORIAL] ZFS Austauschen einer Disk

    Tip: Für die ZFS Pools die /dev/disk/by-id/ Namen statt sdX benutzen, ermitteln mit: ls -l /dev/disk/by-id |grep sde2 zpool status NAME STATE READ WRITE CKSUM rpool ONLINE...
  9. U

    Verzeichnis kann nicht angelegt werden - "Alle Disks benutzt"

    @brunnenkresse der 14 von 30 GB sind auf deiner 80GB Platte, damit Poxmox dei 500er Platte nutzen kann muss Sie in proxmox als Storage definiert werden, wie oben geschrieben. Wie @news schreibt wären ein paar angaben zum aktuellen Setup sehr hilfreich
  10. U

    Verzeichnis kann nicht angelegt werden - "Alle Disks benutzt"

    Damit Proxmox einen Speicher benutzen kann muss er als Storage hinzugefügt werden. Dabei unterstützt Proxmox sehr viele Storagetypen, die wiederum teilweise unterschiedliche Feature wie Snapshots oder Replikation bieten. Ich persönlich finde ZFS als einfacher zu handeln als dein LVM Setup...
  11. U

    Verzeichnis kann nicht angelegt werden - "Alle Disks benutzt"

    Bitte poste die Ausgaben von lsblk fdisk -l /dev/sd? cat /etc/pve/storage.cfg vgs lvs
  12. U

    OSD have spurious read error

    See here: https://forum.proxmox.com/threads/resetting-ceph-warnings.65778/ To display a list of messages: ceph crash ls If you want to read the message: ceph crash info <id> then: ceph crash archive <id> or: ceph crash archive-all
  13. U

    Wie kann ich Proxmox VE per Fernwartung steuern

    Klar, wenn die Energiespareinstellungen vom Desktop den Server in sleep schicken... ;)
  14. U

    Wie kann ich Proxmox VE per Fernwartung steuern

    Was genau stört dich daran? Klar braucht Resourcen
  15. U

    DNS resolution is not working on proxmox although ping to 8.8.8.8 is working.

    try querying the nameserver: dig +short @8.8.8.8 heise.de
  16. U

    Update to 8.2 changes the names of the network interface

    PREDICTABLE Network Interface Names is the new random number generator ;)
  17. U

    OMV5 Raid übertragen auf Proxmox

    Warum löscht du dein System ohne ein (geprüftes) Backup zu haben?
  18. U

    OMV5 Raid übertragen auf Proxmox

    apt install mdadm
  19. U

    Proxmox VE 8.3 released!

    You need to reboot for the new Kernel to be used, but yes it is that easy ;)
  20. U

    Wie kann ich Proxmox VE per Fernwartung steuern

    Du kannst dir eine Gui installieren, z.B. lxde