Flache Storage-Hierarchien und Memory-Pools treffen auf Gen-Z-Connectivity

Paradigmenwechsel angesagt: Memory-Driven und/oder In-Network-Computing

| Autor / Redakteur: Filipe Pereira Martins und Anna Kobylinska* / Ulrike Ostler

Flexible Systemarchitekturen adressieren die Schere zwischen explodierendem Datenvolumen und dem nachlassenden Wachstum der Compute-Leistung.
Flexible Systemarchitekturen adressieren die Schere zwischen explodierendem Datenvolumen und dem nachlassenden Wachstum der Compute-Leistung. (Bild: HPE)

Die Compute-Leistung marktüblicher Hardware kann mit dem Datenwachstum längst nicht mehr Schritt halten. Droht das Ende billiger Hardware? Der Anbruch einer Ära elastischer Systemarchitekturen wälzt die Rechenzentren um.

Für ein Unternehmen hängt der Wert seiner Daten de facto davon ab, wie zeitnah sich daraus konkrete Erkenntnisse ableiten lassen. Zwischen dem explodierenden Datenvolumen und dem nachlassenden Wachstum der Compute-Leistung klafft jedoch seit Jahren eine Schere auf. Die Bedeutung der Datenanalyse in Echtzeit nimmt zu, während sich die hierzu erforderliche Rechenleistung immer eindeutiger zum relevanten Flaschenhals mausert.

Konventionelle Systemarchitekturen können mit den Anforderungen an Echtzeit und Datenwachstum nicht Schritt halten.
Konventionelle Systemarchitekturen können mit den Anforderungen an Echtzeit und Datenwachstum nicht Schritt halten. (Bild: HPE)

Das massive Aufkommen von geschäftskritischen Echtzeit-Workloads verleiht dem Problem eine gewisse Dringlichkeit. Den IDC-Analysten zu Folge soll sich der globale Datenbestand bis 2025 zu erstaunlichen 30 Prozent aus Echtzeitdaten zusammensetzen. Laut einer aktuellen Studie von Deloitte Deutschland sollen bis zum Jahre 2030 alle Geschäftsmodelle datengetrieben (Englisch data-driven) sein. Konventionelle Systemarchitekturen werden diesen Anforderungen nicht gewachsen sein; sie fallen ja schon jetzt kontinuierlich zurück.

„Memory-Driven“ lautet die Maßgabe von HPE für seine künftigen Rechner „Superdome Flex“, das erste produktionsfähige System mit solchen Eigenschaften.
„Memory-Driven“ lautet die Maßgabe von HPE für seine künftigen Rechner „Superdome Flex“, das erste produktionsfähige System mit solchen Eigenschaften. (Bild: HPE)

Einige der etablierten Platzhirsche der IT-Branche sind inzwischen zurück zum Reißbrett gegangen – HPE im Rahmen des Forschungsprojektes „The Machine“ für Memory-Driven Computing, Microsoft unter anderem im Projekt „Prometheus“ für In-Network Computing.

Ergänzendes zum Thema
 
Zusammenfassung

HPEs Memory-Driven Computing trägt bereits erste Früchte mit der Vorstellung von „Superdome Flex“, dem ersten produktionsfähigen System mit „Memory-getriebenen“ Eigenschaften.

Die „praktikablen“ Alternativen zum Quantencomputer

Aus den HP-Labs - Computing im Futur

Die „praktikablen“ Alternativen zum Quantencomputer

13.12.18 - Marco Fiorentino arbeitet in den HP Labs und stellte auf der HPE-Kongressmesse jüngst die Company-eigenen Alternativen zum Quantencomputer vor, nachdem die Schwierigkeiten ein zuverlässiges und leistungsfähiges System zu bauen, als zu große Hürden identifiziert worden waren und HPE die eigenen Pläne kippte. Ziel ist das Memory-Driven Computing. lesen

Mit der Geschwindigkeit des Allzweckspeichers

Der Technologieunterbau heutiger IT-Systeme sei das Resultat von „60 Jahren an Kompromissen“, glauben HPE-Forscher wie Dr. Keeton, Distinguished Technologist bei Hewlett Packard Labs. „DDR-Speicher nähert sich seinem 20. Geburtstag; PCI hat bereits seinen 25. bereits gefeiert“, bemerkt Michael Krause, VP und Fellow Engineer bei HPE und einer der Mitgründer des „Gen-Z“-Konsortiums. HPE wolle sich den Herausforderungen der unhaltbar wachsenden Datenmengen stellen, bestätigt Mike Woodacre, Distinguished Technologist bei HPE.

In heutigen Computersystemen sind der Arbeitsspeicher und die Storage voneinander getrennt; diese beiden Ressourcenklassen zeichnen sich ja auch durch sehr unterschiedliche Eigenschaften aus. „Wir sind an einem Punkt angelangt, an dem wir zwar Compute-Einheiten zu einem System hinzufügen, aber sie unmöglich mit Daten beliefern können“, fügt Krause hinzu. „Wir möchten stattdessen in der Lage sein, eine sehr hohe Bandbreite bereitzustellen und eine sehr geringe Latenz zu gewährleisten, um ein Gleichgewicht in unseren Computersystemen wiederherzustellen“.

Antonio Neri ist CEO und President von Hewlett-Packard Enterprise.
Antonio Neri ist CEO und President von Hewlett-Packard Enterprise. (Bild: HPE)

90 Prozent der Ressourcen eines Computersystems gingen „einfach nur darauf, Daten zwischen dem Arbeitsspeicher und dem permanenten Speicher hin und her zu schaufeln“, sagte Antonio Neri, der Geschäftsführer von HPE, in einer Keynote. Diese Verschwendung müsse endlich ein Ende finden. Prozessorzentrisches Computing müsse unbedingt einer von Grund auf neu konzipierten Systemarchitektur weichen. „Memory-getriebenes“ Computing soll Abhilfe schaffen.

Das erste Produktionssystem mit konzeptionellen Anleihen bei HPEs „speichergetriebener“ Experimentalarchitektur aus dem Forschungsprojekt „The Machine“ ist der Superdome Flex, eine High-End-Server-Linie für modulares In-Memory-Computing auf x86, zum Beispiel mit SAP HANA. Superdome Flex und sein „Numalink 8“-Interconnect schöpfen außerdem aus dem Erbe von SGI, welches sich HPE für 275 Millionen Dollar aneignen konnte.

In einem der Labore von HPE.
In einem der Labore von HPE. (Bild: HPE)

„Mit Superdome Flex können wir heute [...] Speicherplattformen von bis zu 48 Terabyte in einem einzigen Betriebssystem bereitstellen“, freut sich Mike Woodacre. So könnten die Benutzer bereits jetzt damit anfangen, „einige der speichergesteuerten Computertechniken, die aus dem Projekt The Machine bei HP Labs hervorgegangen“ seien, auf ihre Daten anzuwenden, um mehr Echtzeiteinblicke zu gewinnen. Superdome Flex könne Workloads „mit der Geschwindigkeit des Arbeitsspeichers“ ausführen.

Ein Software-definiertes Speichergewebe

Mit dem Superdome Flex ist HPE allerdings erst am Anfang der Erkundung des wahren Potenzials speichergetriebenen Computings, gibt Woodacre zu. „Wenn wir in die Zukunft blicken, auf die wachsenden Mengen an Arbeitsspeicher im Speichergewebe, [und uns überlegen,] wie wir dies aus Sicht der Leistung und Zuverlässigkeit handhaben, [...] ist uns klar [...]: Irgendwann wird etwas schiefgehen“.

Um sich auf diese Herausforderung vorzubereiten, hat HPE Software-definierten skalierbaren Arbeitsspeicher (Englisch: software-defined scalable memory) konzipiert. Dieser Speicher erlaube es dem Nutzer, die benötigte Anzahl von CPUs und die benötigte Menge von Gewebespeicher maßgeschneidert für die avisierten Workloads in Anspruch zu nehmen.

„Indem Sie nur diejenigen Ressourcen bereitstellen, die Sie für eine bestimmte Anwendung benötigen, isolieren Sie sich von anderen Teilen der semantischen Struktur des Speichers [...]; so müssen Sie sich nicht auf eine Speicherstruktur verlassen, die möglicherweise Exabytes an Daten [anderer Anwendungen] aufbewahrt“, erläutert Woodacre weiter.

Content- beziehungsweise kontext- und Workload-abhängiges Bereitstellen von Ressourcen isoliert von anderen Teilen der semantischen Struktur des Speichers ist laut HPE-Forschern die Zukunft.
Content- beziehungsweise kontext- und Workload-abhängiges Bereitstellen von Ressourcen isoliert von anderen Teilen der semantischen Struktur des Speichers ist laut HPE-Forschern die Zukunft. (Bild: HPE)

Der HPE Superdome Flex schlage „eine Brücke zwischen einem Standardprodukt [mit] Standardbetriebssystemen“ und „dieser zukünftigen Welt, in der wir ständig wachsende Speicher- und CPU-Pools haben werden“, kommentiert der Forscher.

Anders als bei anderen Forschungseinrichtungen setzt man beim Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) auf Geschwindigkeit – bei der Datenauswertung genauso wie bei der IT-Beschaffung.
Anders als bei anderen Forschungseinrichtungen setzt man beim Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) auf Geschwindigkeit – bei der Datenauswertung genauso wie bei der IT-Beschaffung. (Bild: HPE)

Einen eigenen HPE Superdome Flex hat kürzlich das DZNE-Rechenzentrum in Bonn in Betrieb genommen. Die Wissenschaftler des DZNE hatten zuvor ihre Algorithmen auf Rechnern von HPE in den Vereinigten Staaten ausprobiert und konnten dort die Auswertung von genetischen Daten von 22 Minuten auf 13 Sekunden – also um den Faktor hundert (102) – reduzieren. Nun steht den deutschen DNZE-Forschern ein eigener Hochleistungsrechner in Memory-Driven-Architektur von HPE zur Verfügung.

Ecke trifft Datacenter-IT: HPE investiert und verdient kräftig

Das Wichtigste von der HPE Discover

Ecke trifft Datacenter-IT: HPE investiert und verdient kräftig

12.12.18 - HPE soll eine Innovations-Company sein, so Chef Antonio Neri kürzlich auf der hauseigenen Kongressmesse „HPE Discover“ in Madrid. Möglicher Kritik an Um- und Abbau der vergangenen Jahre setzt er hinzu: „Wir haben uns zu dem Unternehmen entwickelt, das wir sein wollen“. Die Stichworte, unter denen das Unternehmen einen Fußabdruck hinterlassen will, sind Edge-, Hybrid-Cloud- und Data-driven-Computing mitsamt entsprechender Dienstleistungen. lesen

Für sein Superdome Flex avisiert HPE ein breites Spektrum von Nutzungsszenarien. Einige dieser Szenarien ließen sich durch leicht modifizierte bestehende Frameworks wie „Spark“ (für In-Memory Analytics) bis zu 20-fach (2.000 Prozent) beschleunigen. Grundlegend neue Algorithmen wie beispielsweise Graphen-Inferenz anhand umfangreicher Datenbestände könnten ums bis zu 1.000-Fache (100.000 Prozent) an Leistung zulegen.

Ein für die speicherzentrische Systemarchitektur von Grund auf neu entwickelter Code könne laut dem Anbieter gegenüber CPU-zentrischen Architekturen, etwa im Finanzsektor, sogar um den Faktor 8.000 (800.000 Prozent) an Leistung zulegen. Dieses Potenzial sei bereits bei der Monte-Carlo-Simulation von Aktienpreisen nachgewiesen worden.

Um interessierten Entwicklern den Einstieg zu erleichtern, hat HPE die „Memory-Driven Computing Sandbox“ in Betrieb genommen, einen entwicklerfreundlichen Simulator eines speichergetriebenen Systems auf einem Superdome Flex-Hochleistungsrechner mit 64 Sockets, 48 Terabyte Speicher und „eingewebten“ PCIe-Anschlüssen, PCIe mit direktem Anschluss an die „Memory-Fabric“.

Speichersemantik und Datenpersistenz

In seinem Labor in Fort Collins (USA) betreibt HPE ein Testsystem mit 160 Terabyte Arbeitsspeicher, dem größten Bestand an Arbeitsspeicher „am Stück“ in einem Rechner weltweit. Die Architektur erlaube theoretisch eine Skalierung auf bis zu 4.096 Yottabyte Speicher, also etwa das 124.000-Fache der Gesamtdatenmenge, die heute global überhaupt vorliegt (laut IDG-Analysten sind es schätzungsweise 33 Zettabyte oder 0,033 Yottabyte; 4.096/0,033 = 124.121,21).

Das Speichergewebe unter der Kontrolle von FPGAs ist mit insgesamt 1.280 SoC-Kernen von Cavium vom Typ „ThunderX2 Advanced RISC Machine“ in „ARMv8-A“-Architektur (40 CPUs mit je 32 Kernen, verteilt über vier „Apollo-6000“-Gehäuse) ausgestattet. Für die Speicherkonnektivität zeichnet eine frühe Implementierung von Gen-Z verantwortlich.

Memory-Driven Cores: Den „Superdome Flex“ bestückt HPE mit bis zu 48 TB an HPE-DDR4-Speicher zu je 128-GB-DIMMs pro System.
Memory-Driven Cores: Den „Superdome Flex“ bestückt HPE mit bis zu 48 TB an HPE-DDR4-Speicher zu je 128-GB-DIMMs pro System. (Bild: HPE)

Den Superdome Flex bestückt HPE mit bis zu 48 Terabyte an HPE-DDR4-Speicher zu je 128-GB-DIMMs pro System (je 6 Terabyte pro jedes der acht 5U-Gehäuse im Rack). Ursprünglich wollte das Unternehmen für seine Memory-Driven-Systemarchitekturen auf Memristoren setzen (siehe dazu das E-Book: „High Performance Computing“, Seite 11 „Der HPC-Markt im Zeichen des Umbruchs“), doch frühe Versuche scheiterten wiederholt an noch ungelösten technischen Herausforderungen.

Doch aufgeschoben ist nicht aufgehoben: HPE und Western Digital tüfteln gemeinsam an einem SCM-Speicher (Englisch: Storage-Class Memory) auf der Basis ebendieser noch größtenteils unerforschten, neuromorphischen Schaltkreise in enger Zusammenarbeit miteinander. ReRAM, kurz für „Resistive Random-Access Memory“, soll die Semantik des Byte-adressierbaren Speichers mit Datenpersistenz kombinieren.

SCM-Speicher von Intel

HPE ging außerdem unter anderem auch eine Kooperation mit Intel zur Integration von Intels SCM-Speicher, unter anderem in „HPE 3PAR“ und „HPE Nimble Storage“, ein. So nah an der Idealvorstellung eines Universalspeichers (Universal Memory) war die Industrie noch nie.

Zwischen der Semantik des Byte-adressierbaren Speichers und derjenigen des blockadressierbaren Speichers liegen Welten. In der Vergangenheit war der Arbeitsspeicher (zum Beispiel: DRAM) durch Volatilität gekennzeichnet, während Storage-Medien (beispielsweise HDDs oder SDDs) durch Datenpersistenz trumpften.

SCM mischt die Karten neu auf, indem es die Semantik des Byte-adressierbaren Speichers bereitstellt, ohne dabei auf die Datenpersistenz zu verzichten. Es ginge ja darum, „die Speicherhierarchie zu reduzieren und die [Prozedur des Zugriffs auf] Daten via Code zu verkürzen“, erläutert Kirk Bresniker, Chief Architect und HPE Fellow/VP, Hewlett Packard Labs. Gen-Z bietet ein ebensolches offenes (und zudem lizenzfreies) speichersemantisches Protokoll, welches nicht mehr dem Speichercontroller der CPU unterliegt.

Kirk Bresniker von den HPE-Laboren will die Speicherhierarchie reduzieren.
Kirk Bresniker von den HPE-Laboren will die Speicherhierarchie reduzieren. (Bild: HPE)

Die „Maschine“, HPEs Vision einer Compute-Plattform der nächsten Generation, stützt sich auf Silicon-Photonics. Photonics-basiertes Speichergewebe eliminiert Distanzen als einen relevanten Faktor beim Design von Systemarchitekturen. Hunderte von Racks verhalten sich auf einmal wie ein einziger Server.

Neue Interconnects für das datenzentrische Rechenzentrum

In dem ungesättigten Bedarf an Echtzeitfähigkeiten sehen Experten eine Gefahr, nicht zuletzt für die Rentabilität der betroffenen Unternehmenskunden. Denn die steigenden Anforderungen moderner Workloads an die Compute-Performance dürften die Kosten von IT-Systemen in die Höhe treiben und einen schmerzhaften Verdrängungswettbewerb auslösen. Um das datenzentrische Rechenzentrum der Zukunft zu verwirklichen, bedürfe es „radikaler Innovationen“, argumentieren die Forscher von HPE.

Memory-Driven Computing ist aber nicht der einzige datenzentrische Ansatz zur Optimierung von echtzeitkritischen Workloads. Auch In-Network-Computing hat das Zeug dazu, eine der lästigsten Handbremsen „gestriger“ Rechenzentrums-IT zu lösen.

„Wir sind jetzt in einer Welt, in der Datencenter eine breite Auswahl an anpassungsfähiger, programmierbarer Hardware zur Verfügung steht [...], einschließlich programmierbarer Data-Plane-Switches, SmartNICs und Netzwerk-angeschlossener FPGAs“, sagt Dan R. K. Ports, Leiter des Prometheus-Forschungsprojektes an der Systems Research Group bei Microsoft. Es bestehe so die Möglichkeit, das Netzwerk selbst als eine Compute-Ressource zu nutzen und direkt an jedem einzelnen Datenpaket Berechnungen durchzuführen.

Die intelligenten Netze kommen

Microsoft hat dahingehend die ersten Schritte bereits unternommen. In-Network-Computing und der schrittweise Verzicht auf latenzlastige Konsensusprotokolle wie „Paxos“ hätten es dem Unternehmen erlaubt, den Overhead der Datenreplikation in verteilten Systemen von 80 Prozent auf rund 2 Prozent zu reduzieren. Durch das Auslagern von rechenaufwändigen Operationen in das Netzwerk hinaus habe Microsoft den Datendurchsatz beim Training tiefer neuronaler Netze in hochparallelen Clustern um den Faktor 3 erhöhen können. Andere Nutzungsszenarien von In-Network-Computing, welche Microsoft ins Auge fassen möchte, beinhalten latenzoptimierte Lastverteilung und Netzwerktelemetrieanwendungen.

Aus Sicht von Rich Graham, Senior Solutions Architect bei der jüngsten Unternehmenstochter von Nvidia Mellanox Technologies, könne In-Network-Computing tatsächlich zur Entstehung eines datenzentrischen Rechenzentrums beitragen. (Nvidia und Mellanox Technologies haben bereits in Zusammenarbeit mit IBM unter anderem die beiden schnellsten Supercomputer der Welt, „Summit“ und „Sierra“, gemeinsam auf die Beine gestellt.) In-Network-Computing verspricht, das Datencenter-Interconnect in einen „verteilten Co-Prozessor“ des Rechenzentrums zu verwandeln.

Sowohl Memory-Driven Computing als auch In-Network-Computing lassen das datenzentrische Rechenzentrum zu einem Supercomputer verschmelzen; beide Ansätze bauen auf leistungsstarker Konnektivität auf. Doch während In-Network-Computing an Datenpaketen im Transit herumdoktert, hält Memory-Driven Computing die Datenbestände vorzugsweise doch lieber an Ort und Stelle, jedenfalls im eigenen Allzweckspeicher.

Das Entkoppeln des Speicherns von der CPU

Mit Memory-Driven-Architekturen geht ein ganzer Paradigmenwechsel einher: Durch das Entkoppeln des Speichers von der CPU lassen sich diese beiden Ressourcenklassen erstmals unabhängig voneinander weiterentwickeln oder gleich austauschen. Die zentrale Drehscheibe dieser Innovation – das Rückgrat der Systemarchitektur – ist bei dem speichergetriebenen Ansatz gar nicht der Speicher, sondern das Interconnect.

Gen-Z, das offene, lizenzfreie Interconnect für Memory-Driven Computing, passt auf die neue Systemarchitektur wie angegossen. Dieses „universelle Interconnect“ unterstützt drei Topologien (den Direktanschluss, Switched und „eingewebt“, also per Fabric angeschlossen) und eine breite Auswahl an Komponententypen (darunter Spezialzweckprozessoren wie GPUs, FPGAs, gängige Speicher- und Storage-Medien).

Vielversprechend: die Arbeit des Gen-Z-Konsortiums

Gen-Z skaliert von einem einzelnen Gehäuse über ein gesamtes Rack bis hin zu ganzen Clustern. Der reduzierte Bedarf an Datenübertragung soll nebenbei den Energiebedarf senken. Das Gen-Z-Interconnect kann zudem mit eingebauten Cyber-Sicherheitsvorkehrungen wie der zwangsweisen Isolation auf Hardware-Ebene, starker Paketauthentifizierung und Privacy-Features trumpfen.

Intel und Nvidia sind dem Gen-Z-Konsortium bisher nicht beigetreten; ein Vertreter von Mellanox Technologies sitzt aber im Vorstand.

Während In-Network-Computing mit eher kosmetischen Verbesserungen aufwartet, verspricht Memory-Driven Computing einen nahezu astronomischen Leistungssprung für geeignete Workloads.

*Das Autorenduo

Filipe Pereira Martins und Anna Kobylinska

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46001396 / Allgemein)