Was tut sich in Sachen The Machine und Simplivity?

HPE präsentiert endlich ersten Prototypen von The Machine – noch ohne Memristoren

| Autor / Redakteur: Ariane Rüdiger / Ulrike Ostler

Das erste The-Machine-Nodeboard von HPE wirde auf der CeBIT 2017wie ein wertvolles Schmuckstück in blauem Schummerlicht präsentiert.
Das erste The-Machine-Nodeboard von HPE wirde auf der CeBIT 2017wie ein wertvolles Schmuckstück in blauem Schummerlicht präsentiert. (Bild: Ariane Rüdiger)

Zehn Jahre Forschung scheinen endlich Früchte zu tragen. Auf der CeBIT 2017 war der erste Prototyp eines Nodeboards, der Grundeinheit von The Machine, zu bestaunen. Elemente der speicherzentrierten Architektur sollen Schritt für Schritt in die HPE-Produkte integriert werden.

Mit den Datenmassen, die dank IoT auf die IT-Welt zukommen, werden konventionelle Rechnerarchitekturen nicht mehr fertig – unter anderem, weil rotierende Festplatten und die verwendeten Zugriffstechnologien auf nicht flüchtigen Speicher zu langsam sind. Ein weiteres Problem, das HPE mit The Machine lösen will, ist der immense Stromverbrauch, der zustande kommt, weil flüchtige Speicherbausteine ständig unter Strom stehen müssen, sollen sie nicht ihre Daten verlieren.

Nach jahrelangem Warten konnten IT-Spezialisten auf der CeBIT 2017 nun zum ersten Mal dem Fachpublikum einen Prototypen eines Nodeboards und damit die Kernkomponente von The Machine tatsächlich besichtigen. Mehrere solcher Nodeboards werden über eine doppelt ausgelegte Backplane mit Silicon Photonics zu einem System verbunden.

Dabei kann ein Nodeboard bis zu einem Petabyte nichtflüchtigen zugriffsfreien Speicher enthalten, auf den alle Prozessoren im Gesamtsystem zugreifen dürfen. Wird der Speicher vom Prozessor nicht mehr benötigt, gibt das System ihn wieder frei und er wird neu verteilt. Welche Prozessoren und wie viel Speicher jeweils im System stecken, soll flexibel gehandhabt werden – kundenspezifische Implementierungen sind wohl möglich.

Unmengen Speicherbänke

Das Nodeboard sieht selbstredend anders aus als übliche CPU-Boards: Auffällig sind auf der rechten Seite die Unmengen an Speicherbänken, die von programmierbaren Logikbausteinen (den schimmernden Bauelementen dazwischen) auf Befehl des Prozessors angesteuert werden. Die übliche Ein-/Ausgabelogik entfällt, an ihre Stelle treten Gen-Z-Verbindungen.

Der neue superschnelle Interconnect zwischen Speichern und Prozessor übertrifft PCIe um ein Vielfaches. Mehrere Gen-Z-Verbindungen können parallel betrieben werden, so dass Speicherzugriffe in ganz anderem Umfang als heute üblich skalieren. Auf der linken Seite des Boards befinden sich der Prozessor und ganz am Rand ein Gateway, das das jeweilige Nodeboard mit den übrigen Nodeboards in einem System logisch verbindet und koordiniert - schließlich kann ja jeder Prozessor auf Daten auf allen Nodeboards zugreifen.

In diesem Mechanismus liegt der Hauptvorteil des Systems: Prozessoren sind nicht mehr auf den Speicher angewiesen, der ihnen direkt zugeordnet ist, sondern können einen nahezu unbegrenzten Speicherpool auch außerhalb ihrer direkten Nachbarschaft nahezu in Echtzeit nutzen.

Glasfaser zwischen Nodeboards und Backbone

Als physische Verbindungstechnologie zwischen den einzelnen Nodeboards und dem Backbone wird Silicon Photonics eingesetzt, wobei von jedem Nodeboard zwei bidirektionale Verbindungen mit insgesamt 1,2 Terabit pro Sekunde Bandbreite pro Verbindung zu den redundanten Backbones führen. Auf dem Nodeboard wird derzeit noch mit Kupfer als Transportmedium gearbeitet, später soll auch dort Silicon Photonics Einzug halten.

Gen-Z ist aus der Not heraus entstanden, dass Intel anscheinend über Jahre versäumt hat, seine Speicher-Verbindungen im notwendigen Umfang ans Datenzeitalter anzupassen. Nun werden diese zum Engpass für innovative Big-Data-Anwendungen.

HPE gehört zu den Gründern des Gen-Z-Konsortiums, in dem viele namhafte IT- und Telekommunikationsfirmen mitarbeiten. Intels Namen sucht man auf der Teilnehmerliste des Konsortiums bisher aus wenig verwunderlichen Gründen vergeblich. Man darf durchaus gespannt sein, ob der Prozessor-Weltmarktführer doch noch eine Technologie hervorzaubert, die als Alternative zu dem neu entstehenden offenen Standard gelten kann, oder ob sich das Unternehmen irgendwann ebenfalls in Richtung Gen-Z bewegt.

Memristoren lassen warten

Von Memristoren sieht man derzeit auf HPEs Nodeboards übrigens noch nichts, genutzt werden konventionelle Speicherbausteine. Die Ausbeute bei der Produktion, so hieß es, sei noch zu gering. Freilich sicherte Mark Linesch, Vice President Strategy, Hewlett Packard Enterprise CTO Office, zu, man habe bereits Prototypen der neuartigen Speicherbausteine und könne davon ausgehen, dass in den nächsten ein bis zwei Jahren die Produktionsreife erreicht werde.

Auch seine Software-Pläne in Bezug auf The Machine musste HPE bereits der Realität der Märkte anpassen: Statt gegen die Dominanz bisheriger Lösungen und der darauf basierenden Software mit einem komplett neuen Betriebssystems anzurennen, baut der Hersteller jetzt mit Hilfe der Open-Linux-Community Linux so um, dass es auf The Machine läuft – was, so Andrew Wheeler, Vice President und stellvertretender Direktor der HP Labs, vor allem bedeute, die konventionelle Ein-/Ausgabelogik für den Speicher aus dem Betriebssystem zu entfernen.

Ausprobieren ist erlaubt und gewünscht

Ein auf The Machine lauffähiges Linux lässt sich bereits kostenlos herunterladen und in der Cloud auf einer The-Machine-Simulation ausprobieren, was mit der neuen Architektur möglich ist. Das Interesse daran ist laut Wheeler groß. Auch Pilotkunden für The Machine gibt es schon, so will das Deutsche Zentrum für Neurodegenerative Erkrankungen (DZNE) die Analyse von Hirnscans mit Hilfe des Systems um Größenordnungen beschleunigen.

Erste echte The-Machine-Produkte von HPE könnten aus dem Bereich Big Data stammen und vielleicht Komponenten des aufgekauften Grafikspezialisten SGI mit The-Machine-Technologien verbinden. Zudem plant HPE, in den nächsten ein bis zwei Jahren wichtige Komponenten der neuen Plattform wie integrierte Silicon Photonics oder Gen-Z als Verbindungsstandard in andere Produkte aus dem Portfolio zu integrieren.

Die HPE-Strategie: Für jeden etwas.
Die HPE-Strategie: Für jeden etwas. (Bild: Hewlett Packard Enterprise (HPE))

Plattformzoo oder sinnvolle Vielfalt?

Gleichzeitig präsentierte HPE auf der Cebit auch, wie man die Neuerwerbung Simplivity ins Produktspektrum integrieren will. Wenig verwunderlich wird die Lösung zukünftig auf HPE-Servern laufen. Der Hersteller bietet dafür den beliebten Server „Proliant DLE 380“ zusammen mit Simplivitys Software „Omnistack“ an, die fast alle unternehmenswichtige Funktionen bei der Datenverarbeitung (Journalling, Rechtemanagement, Defragmentierung, Komprimierung und so weiter) unter einem Dach zusammenfasst. Genutzt werden kann eine solche Lösung beispielsweise als schnelles Edge-System für IoT-Anwendungen, aber auch als Grundlage einer Private Cloud.

Damit hat HPE innerhalb weniger Jahre schon wieder zwei neue Plattformen vorgestellt – Proliant DL380/Simplivity als Hyperconverged-Lösung und The Machine als zukunftsweisendes Hochleistungssystem. Sie stehen neben dem am Markt kaum präsenten Moonshot und der vor noch nicht allzu langer Zeit angekündigten Composable Infrastructure mit den „Synergy“-Lösungen.

„Wir haben das Marketing für Moonshot unterschätzt“, sagt Andreas Hausmann, Chief Technologist bei Hewlett-Packard Deutschland.
„Wir haben das Marketing für Moonshot unterschätzt“, sagt Andreas Hausmann, Chief Technologist bei Hewlett-Packard Deutschland. (Bild: Ariane Rüdiger)

Andreas Hausmann, bei der Hewlett-Packard GmbH Chief Technologist Networking, gibt freimütig zu, man „habe das Marketing von Moonshot nicht wirklich im Fokus gehabt und das Thema wohl unterschätzt“, was für Moonshot keine große Zukunft mehr bedeute. Demgegenüber ist er sich sicher, dass Ähnliches sich mit der Composable Infrastructure und den darauf basierenden Synergy-Produkten, den Simplivity-Lösungen und erst recht mit The Machine nicht passieren werde.

Performance zählt

Dies erst recht, da keine großen Umstellungen in der Software erforderlich seien, um mit The Machine erhebliche Leistungssteigerungen zu erzielen. „Apache Spark in einer Hortonworks-Implementierung lief, nachdem in erster Linie der Code für die Ein-/Ausgabelogik entfernt wurde, auf The Machine 40mal so schnell“, berichtet Hausmann.

Den Systemzoo, der vielen Anwendern Verständnisschwierigkeiten bereitet, sieht HPE positiv: Mit den unterschiedlichen Systemfamilien habe man, so Mark Linesch in seiner Präsentation der HPE-Strategie vor der Presse während der CeBIT, nun mit den konvergenten und hyperkonvergenten Produkten die richtigen Angebote für die Private Cloud, mit den Synergy-Lösungen die passende Unterfütterung für hybride IT-Welten. Mit The Machine und den darin integrierten Technologien, die sukzessive ins Portfolio eingebaut werden, könne man sich schließlich ganz neue Leistungshorizonte erschließen, wie es für die Bewältigung der zu erwartenden Datenmassen dringend erforderlich sei.

Dieser Beitrag stammt von unserem Schwesterportal DataCenter-Insider.

* Ariane Rüdiger ist freie Journalistin und lebt in München.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44596782 / RZ-Technik)