Warum man Infiniband im Blickwinkel haben sollte Datenspeicher transportieren durch Infiniband noch schneller
Bandbreite scheint es nie genug zu geben und so ist es nicht verwunderlich, dass jetzt Infiniband die Nische des High-Performance-Computings (HPC) verlassen soll. Die Anbieter von entsprechendem Equipment schielen auf den Speichermarkt und haben dort insbesondere Cloud-Applikationen ins Visier genommen haben.
Anbieter zum Thema
Der Markt für Infiniband-Netze soll sich im kommenden Jahr auf mehr als 612 Millionen Dollar steigern, prophezeien die Auguren von IDC. Fünf Jahre zuvor, also 2006, verpasste man mit knapp 95 Millionen die psychologisch wichtige 100-Millionen-Dollar-Hürde.
Parallel dazu wird sich auch der Umsatz mit den passenden Host-Kanal-Adaptern (HCA) von den gut 62 Millionen Dollar im Jahr 2006 auf knapp 225 Millionen im kommenden Jahr steigern. Gute Aussichten also für eine Technik, die bereits 2002 mit einer Geschwindigkeit von 10 Gb/s aufwarten konnte und derzeit bei bis zu 40 Gb/s liegt.
Schnittstelle für potente Kunden
Die Nachfragesteigerung stammt laut IDC insbesondere aus dem Geschäfts- und Finanzsektor, wo Applikationen zunehmend auf Multicore-Rechnern und Cluster-Systemen laufen und dabei jede Menge Daten produzieren. Beispielsweise verfolgt Intel mit Argusaugen, wie sich dieser lukrative Bereich entwickelt.
Auch die Lieferanten der Betriebssysteme helfen mit, die Technologie zu verbreiten und unterstützen Infiniband in ihren Produkten. Allen voran marschiert Microsoft mit und natürlich die Linux-Gemeinde, denn Linux ist mittlerweile Defacto-Standard bei HPC-Applikationen und da liegt ja das Haupteinsatzgebiet von Infiniband – noch.
Wie Speicher von der cleveren Bus-Technik profitieren
Infiniband transferiert die Daten im Modus „full duplex“ und nutzt ebenso wie Fibre Channel 8Bit/10Bit-Encoding. Der Bus erlaubt es, vier oder zwölf Verbindungen mit je 2,5 oder 5 Gbit/s zu bündeln und erreicht so sehr hohe Übertragungsraten von mindestens 10 bis 60 GBit/s in beiden Richtungen.
Die Endpunkte der Verbindung bilden Host Channel Adapter (HCA) und Target Channel Adapter (TCA): HCAs schaffen die Verbindung zwischen dem Infiniband-Netz und dem Systembus der Hosts.
Die TCAs verbinden das schnelle Netz mit den Peripheriegeräten, die über SCSI-, Fibre Channel- oder Ethernet-Schnittstelle angeschlossen sind. „Analog zur SAN- und NAS-Welt bedeutet das, dass HCAs den PCI-Bridge-Chips entsprechen, während die TCAs die Funktionen von HBAs oder NICs übernehmen“, beschreibt der Publizist Archie Hendryx („The SANMan“) die Infiniband-Elemente.
Speicher-zu-Speicher-Kommunikation reduziert Latenzen
Was Infiniband so schnell macht, liegt auch am Remote Direct Memory Access (RDMA): HCAs und TCAs erlauben sich gegenseitig den direkten Speicherzugriff. So kann ein Adapter im Speicher des anderen Daten lesen und schreiben. Das macht das Bus-System so schnell: Platz zum Lesen und Schreiben ist sofort verfügbar, es entstehen keine Wartezyklen.
Ein anderer Vorteil von Infiniband liegt in der Unabhängigkeit von einer speziellen Technologie. Die Kanaladapter können für Interprozessorkommunikation, zur Anbindung von I/O-Subsystemen aber auch für Multiprotokoll-Switche wie Gbit-Ethernet verwendet werden.
„Die Kontrolle über die Information und sein Routing erfolgt auf Bus-Level und deshalb ist es nicht verwunderlich, dass die Infiniband Trade Association den Bus selbst als Switch ansieht“, erklärt Hendryx.
Und wenn man bedenkt, dass Infiniband das Internetprotokoll in der Version 6 benutzt, so der Spezialist, erhalte man eine nahezu unendliche (infinite) Anzahl von Anschlussmöglichkeiten und potenziellem Durchsatz, der Name „Infiniband“ ist also kein reines Versprechen.
(ID:2045472)