Search results

  1. Q

    PCI-e expander - NVMe - ceph performance?

    Looks very interesting. Maybe even with 4x A-DATA SX8200 Pro M.2 NVMe 1TB (ASX8200PNP-1TT-C) ;)
  2. Q

    vzDump - CEPH - 40G Ethernet

    Das ist mir klar. Jedoch ist, beim Backup, doch wohl dieser extreme Zeitanstieg nicht gewollt?!?! Bzw. hoffe ich da auf einen Lösungsansatz?!?! Ok, das habe ich gelesen und bin der Meinung, dass auch dieser Punkt nicht diese bescheidene Performance beim Backup auslösen kann. Sei es drum...
  3. Q

    vzDump - CEPH - 40G Ethernet

    Das Backup läuft in der Nacht, also kein Traffic und es läuft definitiv nur ein vzDump-Job von diesem einen Node. Und auch alle genannten Maschinen, logisch, nacheinander. Auch das vor vorher so damit Quelle und (besonders) das Ziel, die NAS, nicht überansprucht werden. Nur nochmals zum...
  4. Q

    vzDump - CEPH - 40G Ethernet

    Hallo Alwin. Verbesserung: Ja Gut: Nicht wirklich. Zumindest sind wir nun bei 5 Stunden. Es wäre schön wenn wir, trotz Verbesserung" weiter suchen könnten. Hier mal Log-Start und Log-Ende - Gesamt INFO: starting new backup job: vzdump 503 504 505 531 551 591 --compress lzo --quiet 1 --mailto...
  5. Q

    vzDump - CEPH - 40G Ethernet

    Erledigt. Die letzte Maschine gerade umgestellt. Bericht folgt Morgen. In der Nacht läuft wieder das Backup. Als Beispiel - VM 505 root@proxmox64:~# qm config 505 agent: 1 boot: c bootdisk: scsi0 cores: 10 cpu: host ide0: none,media=cdrom memory: 65536 name: ex01.mydom.de net0...
  6. Q

    vzDump - CEPH - 40G Ethernet

    Der Parameter read, ist kein gültiger Parameter (mehr). bench <seconds> write|seq|rand [-t concurrent_operations] [--no-cleanup] [--run-name run_name] [--no-hints] default is 16 concurrent IOs and 4 MB ops default is to clean up after write benchmark default run-name is...
  7. Q

    vzDump - CEPH - 40G Ethernet

    Bzgl. Software stimme ich zu. Jedoch haben wir bei uns und auch bei anderen Umgebungen bisher absolut keine Probleme. Jedoch lerne ich gerne dazu... wie hat sich das Problem geäußert? Kannst Du mir dazu näheres sagen? Für die HP G8 & G9 gibt es keine alternative für den HBA mode sonst gibt es...
  8. Q

    vzDump - CEPH - 40G Ethernet

    Diesen Befehl habe ich lt. PDF nicht genau hinbekommen! Deswegen... rbd -p rbd_ssd bench bench --io-type read --io-size 8192 --io-threads 256 --io-total 10G --io-pattern seq elapsed: 201 ops: 1310720 ops/sec: 6507.29 bytes/sec: 53307703.31
  9. Q

    vzDump - CEPH - 40G Ethernet

    Bond0 = nur Ring0 Bond1 = den Servern zugeordnet Bond2 = nur CEPH # Hardware - 3 identische Nodes ProLiant DL380p Gen8 - 8 Bay (native Lane, ohne Expander) 2x Intel(R) Xeon(R) CPU E5-2670v2 @ 2.50GHz 10-Core 192GB RAM HPE SmartMemory 1600Mhz 1x Smart Array P420i ProxMox/root = 2x 120GB M.2...
  10. Q

    vzDump - CEPH - 40G Ethernet

    Diese VM´s laufen auf Node ProxMox64.mydom.lan Es ist ein vzBackup-Job vorhanden der diese Maschinen nacheinander sichert. Zu dieser Zeit laufen keine weiteren Jobs root@proxmox64:~# qm config 503 agent: 1 boot: c bootdisk: scsi0 cores: 4 cpu: host ide0: none,media=cdrom memory: 8192 name...
  11. Q

    vzDump - CEPH - 40G Ethernet

    Hallo Alvin. Erst mal vielen Dank für die schnelle Antwort. Die geforderten Info´s kommen gleich Unten. Hier jetzt erst mal die Antwort die Du bestimmt lieben wirst: Das ging ja vorher auch! :eek: # Alte Umgebung 3x ProxMox 5.x (neuste Version) Cluster -> Ein ProxMox hatte 18x 1TB Consumer SSD...
  12. Q

    vzDump - CEPH - 40G Ethernet

    Hallo. Bei mir ist das vzDump per NFS extrem lahm geworden seit der Umstellung auf Cluster/HA und CEPH. Kann mir dazu jemand was sagen? # Umgebung Ich habe für CEPH ein 40G LAN und habe gerade in Enterprise SSD´s investiert. Die generelle Geschwindigkeit ist gut. Aber das Backup per vzDump...
  13. Q

    mtu 9000 - bond

    An mich selbst: Warum einfach, wenn´s auch schwer geht! :confused: Danke, ja... ich habe zuviel gegoogelt. Habe einfach "mtu 9000" eingetragen und es geht. o_O
  14. Q

    mtu 9000 - bond

    Hallo Leute. Ich habe zu diesem Eintrag wirklich gelesen. Überall findet man was neues und/oder anderes. :mad: Ich habe viel auch probiert. Jetzt möchte ich schon aufgeben... Frage: Kann mir bitte jemand die Konfig für mtu 9000 bei einem bond eintragen?!?! Bitte! Es geht mir um bond2 Ich bind...
  15. Q

    ProxMox - 2 von 3 Nodes entfernen

    Komme erst jetzt wieder dazu... vielen Dank für die Master-Erklärung! :)
  16. Q

    ProxMox - 2 von 3 Nodes entfernen

    Ok, das Problem mit den "2 Nodes entfernen" habe ich umgangen. Ich habe einfach 2 alte Wurstgurken mit ProxMox installiert und in den Cluster aufgenommen. Jetzt habe ich "Quorum" und darf die eigentlichen Server entfernen. VM´s laufen dann erst mal weiter. Nicht die professionelle Art. Hat...
  17. Q

    ProxMox - 2 von 3 Nodes entfernen

    Hallo. Vielleicht einfach, jedoch bin ich vorsichtig. Ich habe 3 Nodes in einem Cluster. proxmox71 proxmox81 proxmox91 (Master) Ich möchte die gesamte Einrichtung neu machen, alles neu aufsetzen. Deswegen möchte ich proxmox81 + proxmox91 (Master) entferen. Die Maschinen habe ich schon alle zur...
  18. Q

    Software Raid1 - nachträglich einrichten

    Ich danke. Ich werde es über ZFS machen. Das ist der sinnigste Weg, denke ich. Vielen Dank.
  19. Q

    Software Raid1 - nachträglich einrichten

    Hallo. Kann mir bitte jemand auf die Sprüge helfen. Ich habe 2x 120GB SSD = sda + sdb Hier habe ich eine neue, nackte Installation der ProxMox ISO drauf + Dist-Upgrade + mdadm. Ist alliert ist auf sda. Ich würde hier gerne ein Software Raid1 einrichten. Alle HowTo´s bisher haben mich nicht zu...
  20. Q

    NFS 10G - direkt verbinden

    Vielen Dank für Deine Mühe. Das sind viele Antworten wie gedacht. Also wird es nicht soooo einfach. Und ich muss gestehen: Da habe ich massiven Nachholbedarf. Nun ja, die habe ich hier noch (reichlich) liegen. Ich glaube so 5-6 Stk. Deswegen wäre es mir egal ob die als 1 Port oder 2 Port...