Langsam wird die Vision einer modernen Speicherinfrastruktur sichtbar

Vergänglich war gestern, zukünftige Datenspeicher sind Non-Volatile

| Autor / Redakteur: Walter Schadhauser / Rainer Graefen

Der latenzbehaftete Weg vom Speicher zum Prozessor wird immer kürzer.
Der latenzbehaftete Weg vom Speicher zum Prozessor wird immer kürzer. (Bild: Christos Georghiou/stock.adobe.com)

Wenn man dynamischen Halbleiterspeicher mit nichtflüchtigem Halbleiterspeicher verbindet, entsteht etwas Wunderbares, so würde es wahrscheinlich das Marketing formulieren. Doch hinter dem zukünftigen Konglomerat Persistent Memory steckt mehr als DRAM und Flash.

Die Komplexität der Speichertechnik ist immer wieder mal eine Aufregung wert, wenn es einem der Storage-Anbieter darum geht, ein "ganz" unkompliziertes Speichersystem an den Mann bringen zu wollen. Am liebsten würden sie derzeit simple Web-Scale-Technik in Form von abgespeckten Hyperconverged-Infrastructure-Systemen (HCI) verkaufen.

Die ist angeblich für alles tauglich und jede Erweiterung um eine zusätzlichen Building Block bringt frische Energie ins System, so heißt es. Doch auch für All Flash Array (AFA), Hybrid Storage (HS) und Software-defined Storage (SDS) finden sich gute Argumente angesichts gewachsener Speicherinfrastrukturen beim Kunden.

Hochzeit auf dem Speichermodul oder -bus

Die guten Argumente pendeln wie schon immer zwischen den altbekannten Argumenten von Preis und Leistung oder andersherum. Der Anwender muss also schauen wie und ob er den „Match“ von Big Data, IoT, Realtime Analyse, KI, SAP Hana, Cloud und On Premise, und viele andere Managementprobleme mit dem Speicher, hinbekommen will. Über die wachsende Unordnung ab Tier 2 wollen wir an dieser Stelle großzügig hinwegsehen.

Wer nun gerne glauben möchte, die Beschäftigung mit Storage lohnt sich nicht, weil es auf 40+ GBit Netzwerke und Computer Power ankommt, der täuscht sich. Eine Innovationswelle im Speicherbereich rollt auf die leistungshungrigen Anwenderunternehmen zu. Zu erkennen ist sie an neuen Akronymen wie NVMe, NVMeoF, NVDIMM, RDMA, Persistent Memory, 3D Xpoint, PCM oder ReRAM. Die schon auf den Smartphone Clients erstaunliche Miniaturisierung des Non-Volatile „Dauerspeichers“ hält damit Einzug in die Welt des Serverblechs. Das Chip-Volumen von 1 TByte Flash-Speicher schrumpft derzeit im Jahresrhythmus.

Der zentrale Schritt, der im nächsten Jahr deutlicher erkennbar sein sollte, ist, DRAM und Flash als Hybridspeicher auf einem Hauptspeichermodul zu „verheiraten“. Dieses Gebilde geistert schon seit mehreren Jahren durch die Präsentationen von Experten, die dann über Storage Class Memory, NVDIMM-P oder allgemeiner über Persistent Storage reden.

Der Effekt von NVDIMM-P besteht darin, dass man pro Speichermodul mehrere TByte Halbleiterspeicher mit einer Latenzzeit von 100 Mikrosekunden (µs) und weniger mit DDR5-DRAM koppelt. Das lässt sich jedoch mit Byte-orientiertem Speicher auch als dezidierte Module direkt am Memorybus betreiben. Die 32 und mehr GByte DRAM fungieren als Cache, der wie bei Speichermodulen üblich über den Systembus mit dem Prozessor verbunden ist, so dass etwa 80 Prozent aller Zugriffe mit einer Latenzzeit einigen zig Nanosekunden erfolgen werden.

Performance und Langzeitspeicherung rücken näher zusammen

Ein auf dem Speichermodul sitzender Controller sorgt dafür, dass alle im DRAM geänderten Dateninhalte konsistent in den NV-Bereich zurückgeschrieben werden. In einer Scale-out-Architektur wird das zu einer gewissen Herausforderung werden.

Bis hierhin hört sich das an wie alle bisherigen innovativen Schübe in der Speichertechnik: Profan gesagt, zwei Techniken mit unterschiedlichen Kosten und Features werden kombiniert. Betrachtet man hingegen die beiden Endpunkte, so ist der Hauptspeicher über die Jahrzehnte hinweg immer dynamisches RAM gewesen, während sich auf der anderen Seite der Massenspeicher mit einer mehr oder weniger großen Fähigkeit zur Langzeitspeicherung befindet: vom Magnetband, über Floppy bis hin zu optischen Medien und nun seit einigen Jahren Flash.

Jede dieser Basistechniken durchläuft eine gewisse Entwicklungsbandbreite bei Performance und Kostenoptimierung. Ob am Ende dieser Entwicklungssprünge ein schneller Hauptspeicher mit unendlich großen Fassungsvermögen und versionierter Langzeitspeicherung steht? Könnte sein.

Im Augenblick bereitet sich die Speicherindustrie darauf vor, Tier 0 (DRAM) und Tier 1 Halbleiterspeicher/Flash im Server zu vereinigen. Ob der Anwender dann Flash oder eine preiswerte Festplatte respektive Tape als externen Massenspeicher auf Tier2 einsetzen wird, hängt wahrscheinlich von der Anwendung ab. Im Markt sind jedenfalls Bemühungen erkennbar, die mittels einer Peis-/Performance-optimierten HCI-Plattform die Massendatenhaltung ab Tier 2 konsolidieren wollen.

Das Speichergerät wird zum Hauptspeicher

Gartner hat in einer 2017 überarbeiteten Fassung seines Research-Papiers „The Future of High Performance Storage“ in dem klassischen Dreieck die neue Ordnung der Speicherhierarchie dargestellt. Einer der Kernsätze dazu lautet sinngemäß: „Die Herausforderung besteht darin, die skalierfähige Herstellung von DRAM und NAND Flash miteinander zu verschmelzen und mit diesem Storage Class Memory ein neues Storage-Tier einzuführen. Das Ergebnis würde eine skalierfähige, nichtflüchtige Speichertechnik sein, die zu Kosten von wenigen Dollar pro GByte auf dem Latenzzeit-Level von CPUs arbeiten würden.

Ersetzt man dieser Stelle das Non-Volatile NAND Flash durch einen Halbleiterspeicher wie 3D Xpoint, so lassen sich in Zukunft auch einzelne Speicherzellen und nicht mehr nur ganze Blöcke adressieren, so dass technisch problematische Phänomene wie „Write Cliff“ und „Wear out Levelling“ entfallen und Halbleiterspeicher sich wie dynamische RAMs ansprechen lassen.

Das Zusammenlegen von DRAM und Flash/Halbleiter geht einher mit Verbesserungen auf der Schnittstellen- und Protokoll-Ebene. Die Spezifikation für PCIe Gen4 x4 wurde 2017 abgeschlossen und transportiert nun eine theoretisch maximale Datenmenge über 4 Lanes (x4) von 64 GBit (8 GByte) pro Sekunde. Das reicht leicht für Thunderbolt 3 oder die nächste Generation von M.2-SSDs oder Intels Optane-Produkte (3D Xpoint).

NVMe ist ein Protokoll-Turbolader

Auf der Protokollebene verbindet jetzt NVMe statt SCSI den Prozessor und den Massenspeicher. NVMe ist wesentlich schlanker programmiert und kennt nur noch dreizehn 64 Bit-Befehle, die auf Grund ihrer internen Organisation wahrscheinlich einen Effizienzvorteil von über 30 Prozent verglichen mit SAS und SATA bringen. Nicht zu vergessen, dass NVMe mit 65.535 parallel arbeitenden Queues und jeweils 65-K- Einträgen eine bislang ungekannte Skalierfähigkeit mitbringt.

Durch die PCIe-Schnittstelle ist das Protokoll aber auf geringe Distanzen zu den Speichersystemen wie auch durch die Anzahl der adressierbaren Geräte limitiert. Mittels der seit 2016 freigegebenen Protokollerweiterung NVMeoF (Non- Volatile Memory express over Fabric) können inzwischen jedoch mit anderen Serverknoten größere Scale-out Cluster gebildet oder per Glasfaser, Ethernet oder Infiniband mit externen Speichersystemen kommuniziert werden.

Noch spricht zwar keiner über die Rückkehr des SANs, aber der Begriff Fabric ist schon wieder häufiger zu hören. Laut Gartner soll die Latenzzeit für diese Fabric-Infrastruktur unter 10 Mikrosekunden liegen. Das ist aber nicht weiter schlimm, da ja nur Daten in den NVDIMM-P-Speicher nachgeladen werden, der ja selber bei zig TByte Speicherkapazität scheinbar mit der 80-Nanosekunden-Latenz seines integrierten DRAM-Caches arbeiten wird.

Die Kosten dieser Infrastruktur wird sich im ersten Schritt nur für moderne Anwendungen wie Big-Data-Analysen und KI rechtfertigen lassen. Wahrscheinlich ist sogar, dass mit Infiniband wieder eine spezielle skalierfähige Infrastruktur entstehen wird, über die die absehbar riesigen externen Speicherpools verfügbar werden.

OS- und Anwendungs-Software spielen Bremsfallschirm

Während auf der Hardware-Seite in Kürze enormes Performance-Potenzial bereitstehen könnte, verhindern Betriebssysteme und Anwendungssoftware deren Ausnutzung. Die fehlende „Mechanik“ zur Parallelisierung von Prozessen und granulare Lock-Funktionen benutzter Speicherbereiche behindern die Skalierfähigkeit der Programme. Ebenso fehlt Anwendungssoftware eine Fähigkeit, die Infiniband unterstützen würde, das direkte Lesen und Schreiben einer Anwendung in einen gemeinsam genutzten Speicherbereich, ohne Beteiligung von CPU-Zyklen.

Gartner glaubte schon 2017, dass innerhalb der nächsten 2 Jahre erst NVMe und dann Storage Class Memory Fahrt aufnehmen würde. Doch im historischen Rückblick hat schon die Fibre-Channel-Fabric inklusive SAN gezeigt, dass zehn Jahre vergehen mussten bis diese damals innovative Speicherinfrastruktur einen gewissen Reifegrad erreichte. Bis aus NVDIMM-P ein Scale-out-Storage-Class-Memory geworden sein wird, könnte es sogar noch länger dauern. Gartner empfiehlt jedoch allen Anwendern, die Roadmap der wichtigen Anbieter im Auge zu haben und wenn möglich, frühzeitig Erfahrungen mit dem Turbo-Speicher zu sammeln. Eine schwer einschätzbare Option für den beschleunigten Datenzugriff steckt in der Container-Technik, die erhebliche Vorteile aus dem persistenten Speicher ziehen könnte.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45392989 / Speicherhierarchie)