Die Registry des Hosts greift bei Windows Containern. Problem erkannt und das Thema hatte sich für mich erledigt. 

NVMe over TCP ist sicherlich kostensparend, wenn man noch alte Hardware hat, keine Frage, aber dennoch werden Neuanschaffungen RDMA konform sein und auch bei NVMe-Anwendungen wird sich RDMA durchsetzen. Warum? Na, weil es einfach viel mehr Performance bietet als über TCP. Zum Beispiel ist die Latenz doppelt so hoch bei NVMe-oT als over RDMA. Siehe hier: https://nvmexpress.org/wp-content/u...-You-Need-to-Know-About-the-Specification.pdf. Was gerade für HCI-Umgebungen wichtig ist, dass RDMA-Karten die CPU voll entlasten, da die Daten eben nicht durch den TCP Stack müssen. Wenn wir uns andere Protokolle anschauen, die man auf RDMA aufsetzen kann, sehen wir die Überlegenheit von RDMA von um das 2-3fache z.B: bei den IOPS oder der Bandbreite. Siehe hier: https://developer.nvidia.com/blog/d...tem-performance-with-rdma-enabled-networking/m Enterprise Umfeld geht RDMA wieder zurück, da man z.B. lieber NVMe over TCP macht, statt NVMe over RoCE.
Ich habe mich bereits mit der Einrichtung vertraut gemacht und kann auch das widerlegen. Wenn du Lossless Ethernet-Konfigurationen nutzt, musst du 2 Parameter für das Netzwerk einstellen, nämlich entweder GPFC und PFC oder DSCP und PFC. siehe hier: https://docs.vmware.com/en/VMware-v...UID-B764140D-BCF3-4C99-8169-E5B058757518.html Das sollte jeder normale Admin schaffen. Es setzt natürlich die HW voraus. Das ist klar.Das Problem bei RDMA ist das sehr Komplexe Netzwerksetup mit DCB und PFC.
Nein, RDMA ist auch robust, kann routen und ist lange auf dem Markt. Redhat will einfach nur GlusterFS einstampfen, um vermutlich Ressourcen zu schonen. Es hat sich halt nicht so durchgesetzt.TCP ist da deutlich robuster, warum auch Redhat jetzt diesen Weg geht.
Wie kommst du denn darauf? Nein, um Himmelswillen kein inline Dedup, da geht ja die Performance krachen. Darum setzt es ja keiner bei zfs ein. Wenn dann immer offline Dedup. Darum hat ja BTRFS auch noch seine Daseinsberechtigung. Ich denke aber irgendwann wird zfs offline Deduplication einführen und dann werden die Fanboys von zfs noch mehr schwärmen.P.S. Dedup bei S2D möchtest du nicht, das ist reines Post Dedup und kein inline Dedup.
Egal ob Logisch, das ist einfach Erfahrung aus dem Real Life.Hallo Falk, du bist ja in Rechenzentren schon gut rumgekommen, aber deine Aussagen sind nicht logisch.
Im Real Life sind die Performanceunterschiede nicht so groß. Die extrem niedrigen Latenzen brauchst du eh oft nur bei HPC.NVMe over TCP ist sicherlich kostensparend, wenn man noch alte Hardware hat, keine Frage, aber dennoch werden Neuanschaffungen RDMA konform sein und auch bei NVMe-Anwendungen wird sich RDMA durchsetzen. Warum? Na, weil es einfach viel mehr Performance bietet als über TCP. Zum Beispiel ist die Latenz doppelt so hoch bei NVMe-oT als over RDMA. Siehe hier: https://nvmexpress.org/wp-content/u...-You-Need-to-Know-About-the-Specification.pdf. Was gerade für HCI-Umgebungen wichtig ist, dass RDMA-Karten die CPU voll entlasten, da die Daten eben nicht durch den TCP Stack müssen. Wenn wir uns andere Protokolle anschauen, die man auf RDMA aufsetzen kann, sehen wir die Überlegenheit von RDMA von um das 2-3fache z.B: bei den IOPS oder der Bandbreite. Siehe hier: https://developer.nvidia.com/blog/d...tem-performance-with-rdma-enabled-networking/
Ist alles auch eine Frage der Einrichtung und auch die Frage ob du die Switches nur für Storage oder auch für normales Netzwerk nutzt.Ich habe mich bereits mit der Einrichtung vertraut gemacht und kann auch das widerlegen. Wenn du Lossless Ethernet-Konfigurationen nutzt, musst du 2 Parameter für das Netzwerk einstellen, nämlich entweder GPFC und PFC oder DSCP und PFC. siehe hier: https://docs.vmware.com/en/VMware-v...UID-B764140D-BCF3-4C99-8169-E5B058757518.html Das sollte jeder normale Admin schaffen. Es setzt natürlich die HW voraus. Das ist klar.
Inline Dedup muss nicht langsam sein, auch bei ZFS kannst du mit inline Dedup gute Performance erreichen, Alles nur eine Frage der Konfiguration und Abstmmung. Auch wenn S2D das Dedup nur nachgelagert macht, ist es nicht so effektiv, als wenn ich die gleiche Engine in meinem Windows Fileserver nutze und bei S2D ist der Performanceeinbruch auch deutlich spürbar, sogar bei all NVMe.Nein, RDMA ist auch robust, kann routen und ist lange auf dem Markt. Redhat will einfach nur GlusterFS einstampfen, um vermutlich Ressourcen zu schonen. Es hat sich halt nicht so durchgesetzt.
Wie kommst du denn darauf? Nein, um Himmelswillen kein inline Dedup, da geht ja die Performance krachen. Darum setzt es ja keiner bei zfs ein. Wenn dann immer offline Dedup. Darum hat ja BTRFS auch noch seine Daseinsberechtigung. Ich denke aber irgendwann wird zfs offline Deduplication einführen und dann werden die Fanboys von zfs noch mehr schwärmen.
Bei Proxmox bin ich eh ein Fan von Ceph und wenn Version 18 raus kommt bin ich mal sehr gespannt, Auf der Cephcon wurden einige coole Features und Performanceverbesserungen vorgestellt. Mal gucken was im nächsten Release alles drin ist.Generell:
Mit NVME-oF habe ich mich noch gar nicht so vertraut gemacht, weil es doch noch eher was für die RZ ist, aber es wird sicherlich mehr werden. Das NVMe Protokoll wird definitiv auch das Standardprotokoll für Festplatten werden. Für Proxmox ist es gar nicht mal so uninteressant, da es iSCSI outperfomed. Man muss aber immer bedenken, dass es ein Blockdevice-Protokoll ist. Wenn man nicht gerade Ceph oder [zfs over nvme]einsetzt, benötigt man immer noch ein Clusterfilesystem zusätzlich obendrauf. Man bedenke, wenn ich ein Blockraiddevice freigebe, habe ich immer noch keine Zusatz-Funktionen dabei, es sei denn, ich habe sowas wie zfs drunter.
Komische Erfahrung, die du so machst.Egal ob Logisch, das ist einfach Erfahrung aus dem Real Life.
du meinst, meine Quellen beziehen sich ja nur auf Testumgebungen und deshalb sind sie nicht aussagekräftig. Ich denke schon.Im Real Life sind die Performanceunterschiede nicht so groß.
Was ist das wieder für ein Unsinn. Um so geringer meine Latenz ist, desto schneller legt das Paket seinen Weg zurück. Die LAtenz im Netzwerk ist vergleichbar mit der IOPS Zahl bei Speicher. Bandbreite ist nicht immer das Wichtigste. Willst du etwa einen Internetzugang haben mit 1 Gbit/s Bandbreite aber einer Latenz von 1000ms? Jedes Paket, was dein PC wegschickt benötigt 1 Sekunde ehe es ankommt. Na Prost Mahlzeit. Viel Spaß beim Surfen!Die extrem niedrigen Latenzen brauchst du eh oft nur bei HPC.
Also ich habe mich mal eben bei Fujitsu umgeschaut. Fujitsu ist ja eine Marke, die viele auch im Unternehmensfeld einsetzen. da findest du das Flash-Produkt "Fujitsu Storage ETERNUS AB6100". Und siehe da, es bietet kein NVME over TCP an, dafür aber 2 RDMA Kombinationen. Dass Hersteller NVMe over TCP erst später eingebaut haben, liegt daran, weil die NVME-Spezifikation dazu erst später rauskam als für RDMA. Was für eine unsinnige Argumentation von dir.Jetzt guck dir mal die großen Storagehersteller an, viele Supporten nur NVMe over TCP und alle anderen, welche bisher RoCE unterstützt haben, haben jetzt den TCP Support dazu eingebaut.
Dein normales TCP/IP funktioniert dann trotzdem noch. Das ist dann nicht defekt.Ist alles auch eine Frage der Einrichtung und auch die Frage ob du die Switches nur für Storage oder auch für normales Netzwerk nutzt.
Egal wie gut du es abstimmst, es bleibt langsamer als ohne, denn jede zusätzliche Funktion nutzt die CPU und steigert somit die Latenz.Inline Dedup muss nicht langsam sein, auch bei ZFS kannst du mit inline Dedup gute Performance erreichen, Alles nur eine Frage der Konfiguration und Abstmmung.
Keiner hat hier irgendwas über Effizienz geschrieben. Also bleib mal am Ball! Post-Dedup senkt die Latenz natürlich auch, aber ich kann die Einschränkung auf Zeiten planen, wo nicht die Hauptbelastung des Storages ist. Das ist ja grad der Vorteil von Offline-Dedup. Komisch, das ich dir sowas erläutern muss.Auch wenn S2D das Dedup nur nachgelagert macht, ist es nicht so effektiv, als wenn ich die gleiche Engine in meinem Windows Fileserver nutze und bei S2D ist der Performanceeinbruch auch deutlich spürbar, sogar bei all NVMe.
Ceph hat aber nun mal kein Dedup und darum geht es mir auch in diesem Thread. Wenn dir dein Ceph wie auch anderen etwas zu langsam ist, dann empfehle ich dir Ceph über RDMA zu aktivierenBei Proxmox bin ich eh ein Fan von Ceph und wenn Version 18 raus kommt bin ich mal sehr gespannt, Auf der Cephcon wurden einige coole Features und Performanceverbesserungen vorgestellt.
Ich hatte mir vor 4 Jahren, als es im Markt losging mit RDMA auch mehr vorgestellt. Aber manchmal kommte es anders als man denkt, vor allem wenn man die technische Brille auf hat. Leider gewinnt oft nicht das technisch bessere Produkt, sondern das mit dem besten Preis/Leistung oder besserem Marketing.Komische Erfahrung, die du so machst.
Wenn der Unterschied so groß wäre, dann hätte RDMA längst gewonnen. Durch TCP Offloading der Netzwerkkarten und einiger anderer Features, sind die gemessenen Latenzunterschiede tatsächlich nicht sehr groß, weil wir uns eh in einem Latenzarmen Umfeld bewegen.du meinst, meine Quellen beziehen sich ja nur auf Testumgebungen und deshalb sind sie nicht aussagekräftig. Ich denke schon.
Was ist das wieder für ein Unsinn. Um so geringer meine Latenz ist, desto schneller legt das Paket seinen Weg zurück. Die LAtenz im Netzwerk ist vergleichbar mit der IOPS Zahl bei Speicher. Bandbreite ist nicht immer das Wichtigste. Willst du etwa einen Internetzugang haben mit 1 Gbit/s Bandbreite aber einer Latenz von 1000ms? Jedes Paket, was dein PC wegschickt benötigt 1 Sekunde ehe es ankommt. Na Prost Mahlzeit. Viel Spaß beim Surfen!
Fujitsu ist auf dem Storagemarkt ja eher ein kleinerer Player. Guck dir mal die Platzhirsche an. Netapp = nur TCP, DELL (Powerstore) = RoCE angekündigt, aber TCP implementiert, Pure Storage = RoCE im Portfolio, aber die Engineers sagen, nicht kaufen weil es nicht sauber läuft, jetzt TCP implementiert.Also ich habe mich mal eben bei Fujitsu umgeschaut. Fujitsu ist ja eine Marke, die viele auch im Unternehmensfeld einsetzen. da findest du das Flash-Produkt "Fujitsu Storage ETERNUS AB6100". Und siehe da, es bietet kein NVME over TCP an, dafür aber 2 RDMA Kombinationen. Dass Hersteller NVMe over TCP erst später eingebaut haben, liegt daran, weil die NVME-Spezifikation dazu erst später rauskam als für RDMA. Was für eine unsinnige Argumentation von dir.
Aber dann musst du beim PFC mehr Hirnschmalz reinstecken, du willst ja mit dem Storage dein Voice nicht abklemmen und auch wegen Voice keine Storagepakete verlieren. Bei dedizierten Storagenetzen ist es tatsächlich relativ einfach, aber viele möchten nicht zwei mal teures Netzwerk kaufen.Dein normales TCP/IP funktioniert dann trotzdem noch. Das ist dann nicht defekt.
Leider kann ich keinen Performance-Vergleich im Internet finden. Ich denke, dass RDMA wegen seinem Design trotzdem performanter ist als TOE. RDMA hat allerdings den Nachteil, dass sich die drüberliegenden Programme anpassen müssen, was bei TOE nicht der Fall ist. Das ist aus meiner Sicht die eine Hauptursache für die fehlende Marktdurchdringung und die 2. ist die fehlende Standardisierung. Es gibt halt zu viele Lösungsvarianten, siehe RoCE, iWArp, Infiband.Durch TCP Offloading der Netzwerkkarten und einiger anderer Features, sind die gemessenen Latenzunterschiede tatsächlich nicht sehr groß
Richtig, Dell ist zu meiner Verwunderung Spitzenreiter.Fujitsu ist auf dem Storagemarkt ja eher ein kleinerer Player.
Wo hast du die info wieder her. Netapp unterstüzt alle - durch die Bank weg.Guck dir mal die Platzhirsche an. Netapp = nur TCP,
Also meine Infrastruktur würde auch den Core Switch für VoIP nutzen. Das muss man natürlich zusätzlich konfigurieren, wenn du VoIP nutzen willst und das machste am Einfachsten mit VLAN Priorisierung. Wie kommste jetzt wieder auf Pakete verlieren? Was für billige Hardware setzt du denn ein? Da verliert doch der Switch keine Pakete.du willst ja mit dem Storage dein Voice nicht abklemmen und auch wegen Voice keine Storagepakete verlieren.
Oder du verteilst die Last einfach = Perfektionierung der Storageauslastung wie oben beschrieben.Entweder du willst Dedup und planst Ressourcen dafür ein, oder man lässt es komplett.
Infiniband = RoCE Protokoll und iWarp nutzt wieder TCP und kein UDPLeider kann ich keinen Performance-Vergleich im Internet finden. Ich denke, dass RDMA wegen seinem Design trotzdem performanter ist als TOE. RDMA hat allerdings den Nachteil, dass sich die drüberliegenden Programme anpassen müssen, was bei TOE nicht der Fall ist. Das ist aus meiner Sicht die eine Hauptursache für die fehlende Marktdurchdringung und die 2. ist die fehlende Standardisierung. Es gibt halt zu viele Lösungsvarianten, siehe RoCE, iWArp, Infiband.
Ich habe keine Ahnung was NetApp derzeit tatsächlich unterstützt, ich sehe aber nur NVMe over TCP Installationen im Feld. (Hätte ich auch mal nachgucken können)Richtig, Dell ist zu meiner Verwunderung Spitzenreiter.
Wo hast du die info wieder her. Netapp unterstüzt alle - durch die Bank weg.
Egal wie teuer der Switch ist, bei UDP hast du keine Zustellgarantie und wenn ein Uplink dicht ist können UDP Pakete mal hops gehen.Also meine Infrastruktur würde auch den Core Switch für VoIP nutzen. Das muss man natürlich zusätzlich konfigurieren, wenn du VoIP nutzen willst und das machste am Einfachsten mit VLAN Priorisierung. Wie kommste jetzt wieder auf Pakete verlieren? Was für billige Hardware setzt du denn ein? Da verliert doch der Switch keine Pakete.![]()
Uplink? Auf dem Core Switch?. Ách den Uplink zum AdminEgal wie teuer der Switch ist, bei UDP hast du keine Zustellgarantie und wenn ein Uplink dicht ist können UDP Pakete mal hops gehen.
Aber nur weil sie das udp Protokoll an ihre Bedürfnisse anpassen, damit es mit Schaltkreislösungen kompatibel ist.Da RoCE/Infiniband ihren Performancevorteil herausholen durch die Nutzung von UDP
ja...infiniband war ja mal eigenständig und dann hat es RoCE aufgekauft.Infiniband = RoCE Protokoll
iWarp war schon immer abtrünnig, durch TCP ist es auch tierisch langsam, wenn du es nicht mit TOE kombinierst.iWarp nutzt wieder TCP und kein UDP
Als verantwortungsvoller Admin solltest du auch mal auf das Nachbarfeld schauen.ich sehe aber nur NVMe over TCP Installationen im Feld.
ja,ja...Lesen bildet, aber wenn man nur auf dem einen Feld ist, wäre es glatte Zeitverschwendung(Hätte ich auch mal nachgucken können)
Das ist quasi wie mit der Post. Andere Anbieter reihen sich da ja momentan mit ein. Wer weiß, wo es hinführt. Nur noch Hack am Ende der Leitung.Egal wie teuer der Switch ist, bei UDP hast du keine Zustellgarantie
auf jeden....wenn die Dinger richtig heiß werden, haste Fehler ohne Ende auf der Leitung. Ich baue die immer mit 1 HE Abstand ein. Das hilft ungemein. Ich lass mir aber auch sämtliche Temperaturwerte aufs Smartphone senden, damit ich pünktlich mit dem Feuerlöscher zu gegen bin. Deshalb finde ich diese Racks mit Löschanlage 'ne richtig gute Investition.musst du halt höllisch aufpassen im Design und Monitoring des Netzwerks.
Hast du schon mal ein größeres RZ gesehen? "Der" Core Switch ist beim kleinen Mittelständler mit einem Serverraum.Uplink? Auf dem Core Switch?. Ách den Uplink zum AdminDann nimm RoCE V1 da hats kein udp. Clever was?
Das sind ja auch Spielerein. Die nutzen wir schon lange nicht mehr. Da ist die Latenz auch viel zu hoch. Wir setzen moderne gebündelte Supraleiter ein. Die bieten auch ne viel höhere Bandbreite. Wenn man Geld hat, baut man redundante Infrastrukturen auf. Dann brauchste auch kein Uplink.Da wir da in der Regel, im Uplink, nicht mehr als 200-400 GBit haben, kann das schon manchmal Eng werden auf der Leitung.
Naja, jetzt fängste an zu spekulieren. Verzettelst du dich da nicht ein wenig.wenn du immer eine HE frei lässt bei den Switches, arbeitest du auch nicht mit Kalt und Warmgängen.
Naja, man muss sich überlegen, wo man Geld ausgibt. Hightech Switche sind ja unbezahlbar. Wir nehmen lieber KMU-Geräte und pimpen die mit besseren Lüftern und Kühlungspaste. Wenn man sich ein bißchen auskennt, kann man die gut overclocken. Da bekommt man dann bis zu 50 % mehr Durchsatz. Da is mir die Garantie auch egal bei dem Preis/Leistungsverhältnis.Bei vernünftiger Hardware hast du kein Kühlungsproblem
Also Supraleiter hast du bestimmt nicht, wo willst du denn die Kühlung dafür hernehmen? Selbst große RZ arbeiten ganz normal mit Single Mode Glasfaser und da ist derzeit bei 800GBit und 1600GBit (mit Nokia) das Ende der Fahnenstange. Das ist aber noch unbezahlbar.Das sind ja auch Spielerein. Die nutzen wir schon lange nicht mehr. Da ist die Latenz auch viel zu hoch. Wir setzen moderne gebündelte Supraleiter ein. Die bieten auch ne viel höhere Bandbreite. Wenn man Geld hat, baut man redundante Infrastrukturen auf. Dann brauchste auch kein Uplink.
Liegt halt nahe, ich mach das schon seit 25 Jahren.Naja, jetzt fängste an zu spekulieren. Verzettelst du dich da nicht ein wenig.
Sowas klingt wieder nach Kleinkrauter (ich weiß, reine Spekulation).Naja, man muss sich überlegen, wo man Geld ausgibt. Hightech Switche sind ja unbezahlbar. Wir nehmen lieber KMU-Geräte und pimpen die mit besseren Lüftern und Kühlungspaste. Wenn man sich ein bißchen auskennt, kann man die gut overclocken. Da bekommt man dann bis zu 50 % mehr Durchsatz. Da is mir die Garantie auch egal bei dem Preis/Leistungsverhältnis.
NVMEoF ist die Zukunft, nur Microsoft kann das noch nicht.FS Switche sind schon unschlagbar in Preis und Leistung. Zu Beginn dachte ich, die sind eher auf datacenter spezialisiert, aber die bieten ja auch unglaublich günstige Access-Switche an. Sehr geil. Da wird bestimmt irgendwann ein investor kommen und die aufkaufen und dann die Preise Richtung DELL, LEnovo und Co anpassen. Danke nochmal für die Erwähnung von NVME-oF. Das kann man gut in ein individuell konzipiertes Storage integrieren.
Starwind hilft da ja zum Glück aus.NVMEoF ist die Zukunft, nur Microsoft kann das noch nicht.
We use essential cookies to make this site work, and optional cookies to enhance your experience.