Search results

  1. H

    Datenverlust durch Absturz

    Was heißt genau die Datenbanken waren defekt? Bei jedem Datenbankabsturz muss man mit Problemen rechnen. Was sagt MySQL was nicht passt? Sind einzelne Tabellen kaputt oder die ganze Datenbank? Welche Storage Engine wird verwendet? lg Gregor
  2. H

    VM für Node X sperren

    Es geht eben zum einen um die Lizenzproblematik wenn man bei Microsoft per Socket lizenziert wie es mit Windows 2012R2 DC möglich war. Dazu muss es möglich sein VMs auf gewisse Hosts einzuschränken. Das ganze sollte über regeln laufen ähnlich wie bei VMWare DRS affinity rules. Damit wären...
  3. H

    VM für Node X sperren

    Da fehlt genau die Unterscheidung zwischen Soft und Hard. Einmal müssen die VMs auf unterschiedlichen Nodes bzw Sites laufen einmal sollen sie das. Für HA Failover wäre es mir egal auf welcher die VMs hochkommen. Im Normalbetrieb muss die VM richtig laufen. (Wenn ein DC abraucht)
  4. H

    Shared Storage zwei Cluster

    Was du glaube ich meinst sind die Affinity Rules. Klar die gehören auf Node Basis. Auf sowas warte ich natürlich auch. Wäre sehr sinnvoll um von einem Datacenter auf das andere Umzuschalten ohne wirkliche Downtimes zu haben. Ich dachte du meinst Nummernkreise für IDs.
  5. H

    VM für Node X sperren

    Ich kenne das Problem. Was du mehr oder weniger brauchst sind die DRS Affinity Rules von VMWare. Die gibt es meines Wissens leider nicht bei Proxmox. Lösen kannst du das wohl nur durch verschiedene Cluster. Eventuell könnte Proxmox sowas implementieren. Wobei ein Soft und Hard Modus wichtig...
  6. H

    Shared Storage zwei Cluster

    Eine NetApp kann ausreichend LUNs das ist sicher nicht das Problem. Naja Nummernkreise pro Host halte ich nicht für sinnvoll - vor allem die Zuordnung wäre nicht sinnvoll möglich. Wenn ein HA Failover passiert würde die Zuordnung nicht mehr stimmen. Aber Pro Cluster würde das schon einen Sinn...
  7. H

    CIFS mount in /etc/fstab will not auto-mount upon restart

    Use service and not fstab. Create the unit file in /etc/systemd/system/ with the name format: mnt-path.mount then systemctl enable mnt-path.mount and systemctl start mnt-path.mount Fstab is horrible. [Unit] Description=CIFS Mount Requires=network-online.target After=network-online.service...
  8. H

    Suche Hilfe bei Kostenabschätzung

    Ich würde nicht mit 10G RJ45 arbeiten sondern mit CR Kabeln. Als Netzwerkkarten kann ich die x710 empfehlen. Gibt es bereits Switches? Wie viel Redundanz soll das Setup haben? Bei den Servern wäre Intel nicht schlecht oder eventuell Supermicro. Wie schaut der weitere Ausbauplan aus...
  9. H

    Snapshots on NFS or iSCSI

    I know this plugin but as i see this is very old and not using the NetApp API. I'm not sure if this plugin is working with Proxmox 5 but i will test it on Monday in our Lab. Maybe we can use this as a base and rewrite the code to the NetApp API.
  10. H

    Snapshots on NFS or iSCSI

    This would be also ok how can i do this? I will talk monday or tuesday to our dev guys. Lets see if we can write a NetApp plugin. Is it possible that you integrade this plugin and if yes which license do you need for the plugin?
  11. H

    Snapshots on NFS or iSCSI

    Is it possible to drop the cashes with an api call? If yes we could write a plugin this should be no problem. If not we would have normal backups which are not consistent. This is ok for the most servers but as i wrote above this would be a nice feature if we could do this. With such an api...
  12. H

    Snapshots on NFS or iSCSI

    Why not using NetApp Snapshots? I think there is nothing like which works so great than the SnapShots on a NetApp in special you can have 255 SnapShots per volume. If you need to restore you can do a FlexClone and mount the clone and then move the vm to the original nfs share. It would be a...
  13. H

    Searching for the right setup (Hardware and Software).

    Why not buy an used NetApp? Then you simple use NFS and have HA without any problem. You will also save space because of compression and deduplication. You could run cifs on the NetApp directly.
  14. H

    [SOLVED] Workaround for cluster with 2 bare metal nodes

    Is there a date where the qdevice will be implemented? This would be a great help.
  15. H

    Probleme mit MTU

    Bitte mal mit sio_ntap testen. Und auf jedenfalls mit Files die größer als der Cache oder Flashcache sind. Welche ontap Version? Ist sicher der ganze Pfad MTU 9000? Was sagt pktt? Welche ontap Version? Gibt es für alle Hosts reverse lookup? Bei MTU 9000 brauchst du auf jeden Fall TCP tuning...
  16. H

    Advise/Engineer needed

    What are your questions? How many nodes you like to have in the cluster? What are your requirements for the storage? I mean space and iops. Gregor
  17. H

    nfs mount for disks

    sio_ntap is real nice. You can specify the read/write ratio and also the block size.
  18. H

    LXC and nfsroot

    We use a NetApp Metrocluster as storage system so i don't think we have a problem with the storage backend. Most requests will be answered from cache and not from disk. We have about 33% from nvram 33% from FlashCache and 33% from disk. We have 2x 10G links to each hypervisor so this should be...
  19. H

    LXC and nfsroot

    Are there known problems with this configuration? Will this option be removed in the next releases?
  20. H

    LXC and nfsroot

    I get an error with disk size 0 - The minimum value for this field is 0.1. So is this not possible with the gui?