Search results

  1. A

    ZFS Pool in Proxmox bilden

    Moin, da ich inzwischen das Vorhaben mit Ceph aufgebe (weder Foren, Hardwarehersteller und Proxmox selber finden einen Fehler, es artet in verzweifelter extrem zeitintensiver Fehlersuche aus) bin ich am überlegen auf ZFS Pools zu gehen. Gedacht sind ZFS-Laufwerke mit jeweils zwei physischen...
  2. A

    ceph - schlechte performance

    Korrekt, die CEPH-Nics laufen auf zwei gestackte Switche. Diese hängen nur mit dem Consolenport im Systemnetz.
  3. A

    CEPH - Kalkulation RAM

    Was zum ... ich hatte so ein Paper gelesen, da standen aber andere Werte darin. Was ein kleiner und ein großer Cluster ist, ist leider nicht definiert. Wenn ich nun von groß ausgehe: Monitor 10GB + OSD: 20x5GB = 100GB, also 120GB RAM für das Storagesystem max.? Sparsam ist das jetzt nicht...
  4. A

    CEPH - Kalkulation RAM

    Moin, gibt es eine Art Formel um den RAM-Verbrauch von Ceph sauber abzufedern? Bei Ceph stand, dass jeder Dienst 1GB RAM benötigen würde, bei OSDs nur 500MB. Wenn ich also mit 4 Journalen (1TB SSD) und 20 OSDs (1TB HDD) unterwegs bin, dann komme ich auf 14GB RAM für CEPH reservieren. Haut das...
  5. A

    [SOLVED] So - erstmal alles in die Luft geflogen

    Was SM angeht: Die liefern auch gerne die Kisten mit antiken Bios aus. Das bedeutet, dass ich per default das Softwareraid für das PVE System booten konnte. Nach dem Biosupdate lief es. Vergleichsweise simpel zu fixen, aber ich finde das auch .... seltsam. Trotzdem bin ich nicht bereit horrende...
  6. A

    [SOLVED] Sporadischer Verbindungsabbruch bei VLAN/LACP

    Die Maschinen haben hierzu virtio NICs bekommen und erscheinen bisher als zuverlässig. Die Intel E1000 machen wohl auch via VMware gerne die identischen Probleme.
  7. A

    ceph - schlechte performance

    Inzwischen knabbern auch die Österreicher an dem Problem. Es hat sich herausgestellt: - ceph: performance ok - ceph VM-Laufwerk in Host mounten: performance ok - Linux VM mit virtio-Laufwerk: performance ok - Windows VM mit SATA, SCSI oder virtio: performance "stabil" bei 50MB schreibend. Es...
  8. A

    [SOLVED] Sporadischer Verbindungsabbruch bei VLAN/LACP

    Ich habe es anscheindent herausgefunden: Windows 2012 R2 ist bekannt dafür, gewisste Schnittstellen zu verlieren. Misstrauisch wurde ich, dass ein Reconnect via PVE Einstellungen das Problem richtete, genauso wie ein Reboot der VM.
  9. A

    [SOLVED] Sporadischer Verbindungsabbruch bei VLAN/LACP

    Den Dump werde ich bei Gelegenheit schreiben. Der fehler trat jetzt auch auf einem "non-bond" Anschluss auf, also nur bridge und darauf vlan Schnittstellen gesetzt. Der PVE Adminzugang auf der nativen NIC läuft einwandfrei und kann so bei den VMs die Schnittstelle "ab- und anstecken" und zack...
  10. A

    [SOLVED] Sporadischer Verbindungsabbruch bei VLAN/LACP

    Bei einem sporadischem Abbruch von 24-48h hätte ich irgendwas an die 30gb aufzunehmen, kann man das irgendwie vorab filtern?
  11. A

    [SOLVED] Sporadischer Verbindungsabbruch bei VLAN/LACP

    Guten Abend, das Aufräumen hat nichts gebracht, das Verhalten ist wieder genau so da wie vorher --> Regelmäßiger Abriss der Verbindung für 5-10min, dann wieder von alleine wieder online.
  12. A

    [SOLVED] Sporadischer Verbindungsabbruch bei VLAN/LACP

    Jetzt wo wir so darüber sprechen fällt mir das auch auf ... ist ja schon peinlich. Ich habe nun ein "ip-loses" bond und eine "ip-lose" bridge eingesetzt und den VLAN Tag in der VM gesetzt.
  13. A

    Hilfe zu open vSwitch (OVS) - Bonding

    Das Problem mit den IP-Adressen hätte gerne erklärt: Welche IP Adressen sollten zu viel sein? Okay, also eine normale Bridge auf den Bond setzen und den VLAN Tag per VM mitgeben? Was ist hier anders? Ein loop dürfte nicht entstanden sein. Die VLANs laufen nur in der UTM zusammen, bis zur VM...
  14. A

    Hilfe zu open vSwitch (OVS) - Bonding

    Der Faden dazu: https://forum.proxmox.com/threads/sporadischer-verbindungsabbruch-bei-vlan-lacp.49246/
  15. A

    Hilfe zu open vSwitch (OVS) - Bonding

    Ich hatte Linux bond und bridge laufen, der effekt war, dass die Verbindungen regelmäßig weg waren. Es dauerte so 5-15min und dann liefen die auf einmal wieder. Das war schon arg lästig und daraufhin wurde OVS empfohlen.
  16. A

    Kombination CEPH und Replication

    Moin werte Kollegen, unser Cluster speichert mit CEPH, zeitgleich möchte ich in ein "Notfalldatacenter" alle VMs replizieren (15min, 1h, 3h Takt) um Worstcases abzufedern. Das Datacenter steht abseits der Firmeneinrichtungen aber im Aktionsbereich der LKW. Es wäre nicht vollkommen an den Haaren...
  17. A

    ceph - schlechte performance

    Der Sprung von 8GB RAM auf 64MB RAM brachte schon einiges. Wenn ich nun die Intel P3600 800GB einsetze die für 10 Jobs (also OSDs) gute Zahlen hat, dann sollten die Mühlen dann ausreichend dimensioniert sein, oder doch nicht? Ach Quatsch, NVMe ist ja auch ein Thema.
  18. A

    ceph - schlechte performance

    Nachdem ich mal großartig mit 1/4 Wissen geglänzt habe bin ich ein wenig vorsichtig mit Vorstellungen ^^ Das Ziel ist es, mit der zu Grunde liegender Hardware die bestmögliche Performance rauszuholen. Womit ich noch gar nicht klarkomme, trotz doch guter Zahlen von Ceph, ist das krasse...
  19. A

    ceph - schlechte performance

    Ups, da hatte ich mit der Verlinkerei daneben gegriffen. Jawohl, anbei die Auswertung:
  20. A

    ceph - schlechte performance

    Zuviel Geld möchte ich auch nicht mehr ausgeben. Flashonly wäre auch dezent übertrieben. Mir würde es reichen, wenn man mit dem Array von 24 Platten was vernünftiges rauspressen kann. Beim Setup 4x SSD + 5OSDs benötige ich zwingend NVMe? Vier PCIe Ports wären ja noch frei. Es reicht, wenn die...