Definition Storage Was ist Storage?

Autor / Redakteur: Walter Schadhauser / Rainer Graefen

Die kurze moderne Antwort heißt: Speicherung von Daten. Für die längere Antwort sollte man antizipieren, dass viele Jahre vor unserer Zeitrechnung nicht Daten gespeichert, sondern Informationen aufbewahrt wurden, indem sie in Stein gemeißelt wurden. Diese „Daten“ existieren noch heute. Doch mit dem Aufbewahrenwollen fangen ja erst alle Probleme an.

Anbieter zum Thema

Faszinierend: Die Daten wachsen durch die Digitalisierung mit zunehmender Beschleunigung und weil fast jeder vieles gerne noch einmal für sich alleine hätte.
Faszinierend: Die Daten wachsen durch die Digitalisierung mit zunehmender Beschleunigung und weil fast jeder vieles gerne noch einmal für sich alleine hätte.
(Bild: Rainer Graefen)

Schon aus diesem kurzen Vortext kann man einiges über die Aufgabe von Storage, die Aufbewahrung von Informationen, ableiten. Der ins Deutsche transferierte Begriff „Speichertechnik“ weist eigentlich genauer darauf hin, dass diverse Ingenieurswissenschaften notwendig sind, um dem eigentlichen Thema „Ideen- und Erkenntnisweitergabe“ gerecht zu werden.

Zu viele Daten nerven – noch

Aus der Gegenwart heraus betrachtet, ist sicherlich erfreulich, dass Informationen Jahrtausende überdauern können und wir einiges über unsere Vorfahren erfahren und manchmal auch lernen können. In der Gegenwart selbst zeigt sich allerdings ein modernes Phänomen: technisch induzierte Geschwätzigkeit.

Soll heißen, mit moderner Technik kann heute ziemlich jede Lebensäußerung aufgezeichnet werden, die eine sehr mitteilsame Menschheit so von sich gibt. Mit der Flut ihrer individuellen Erkenntnisse über sich und die Welt wird eine Datenmenge produziert, die im Jahr 2031 in Yottabyte gemessen werden muss (im Jahr 2025 sollen es nach derzeitigen Prognosen 163 Zettabyte sein). Ob diese Maßzahl gleich als Maßstab des menschlichen Wissens betrachtet werden sollte, sei einmal dahingestellt.

Noch erschrecken viele Menschen ob dieser Datenflut, die allerdings erst den Anfang eines informationsgetriebenen, rundum digitalisierten Lebens kennzeichnen. Ob man alles und jedes aufheben sollte oder nur das Wichtige, werden nachfolgende Generationen besser entscheiden können – oder eine globale Katastrophe, zum Beispiel durch einen Meteor, löst das Problem, so wie wir uns heute freuen, wenn wir von Dinosauriern Skelette oder Fußspuren finden.

Aber selbst diese Reste haben viele Erkenntnisse über die Vielfältigkeit des Lebens nach sich gezogen. Und schaut man Archäologen oder Historikern über die Schulter, so freuen sich diese über Schutthaufen von Tonscherben, in denen damals Gebrauchsgüter aufgehoben wurden, oder über Bücher, in denen aufgelistet wird, was früher so zum Essen auf den Tisch kam. Nachfolgende Generationen werden also noch viel Spaß mit unseren Hinterlassenschaften und Erkenntnissen haben.

Wer dasselbe von einem modernen Speichermedium erwarten würde, wäre sehr schnell sehr enttäuscht.

Die Dimensionen der Speichertechnik

Informationen, die nicht aufzufinden sind, sind so gut wie gelöscht. Nichtsdestotrotz ändert das nichts daran, dass sie da sind. Eine erste Dimension von Storage/Speichertechnik besteht also darin, Informationen dauerhaltbar zu machen. Ein wichtiger Stein in der Menschheitsgeschichte, der „Rosetta Stone“, zeigt jedoch, dass die Dauerhaltbarkeit eine generelle Verfügbarkeit der Rosetta-Stone-Informationen ohne Gabelstapler und andere Schwerlasttransportmittel extrem erschwert.

Die eingemeißelten Schriftzüge dann vom Speichermedium Stein auf das Speichermedium Papier zu übertragen, hat die Verbreitung der Information wesentlich vereinfacht. Generell betrachtet, sorgt die zweite Dimension der Speichertechnik, die Verfügbarkeit von Informationen herzustellen, dafür, Informationen masselos zu machen. Die Digitalisierung von Informationen hat hier ganze Arbeit geleistet und die Information weitgehend von ihrem Trägermedium gelöst. Dies ist aber nur für die kleine Zeitspanne der Zurverfügungstellung gültig, also während des Transports. Am Anfang und Ende des Transportweges muss sich die Information manifestieren und benötigt dazu ein Trägermedium in Form eines Displays oder einer Speicherzelle.

Eine dritte Dimension von Storage ist die Zugriffszeit. Waren es vor 20 Jahren noch Sekunden, so hat die Zugriffszeit durch moderne Halbleiterspeicher eine Dimension bekommen, die in Nanosekunden gemessen wird.

Doch eine weitere Dimension, die vierte, fehlt noch. Einzigartige Informationen, Originale, sind zwar von Sammlern hoch begehrt, doch die Einzigartigkeit ist eine Gefahr für jedes Datum. Ein kleiner Fehler, eine Katastrophe, kann dieses Original zerstören. Auch hier hat die Digitalisierung mit Kopien dafür gesorgt, dass Original und Kopie kaum noch auseinanderzuhalten sind. Diese Redundanz ist unverzichtbar für den Vergleich von Original und Kopie, um die Eindeutigkeit einer Information sicherzustellen.

Wirtschaftlichkeit, die 5. Dimension

Die Hauptschlagwörter der Speichertechnik, die jedes Hersteller-Marketing für sich beansprucht, sind dementsprechend: „availability“, „reliability“, „scalability“, „performance“, „fault tolerance“ (Verfügbarkeit, Zuverlässigkeit, Skalierbarkeit, Leistung, Fehlertoleranz). Zusammen mit den Kosten eröffnet sich hier ein immenses Spielfeld für das Marketing und die angewandte Wissenschaft.

Nicht nur für Anwender sind die technischen Begrifflichkeiten schwer zu verstehen. Availability zum Beispiel wird bei Einsatz eines RAID-Systems gerne damit gleichgesetzt, dass selbst der Ausfall einer Festplatte den Zugriff auf die Daten erlaubt. Generell stimmt das, in der Praxis stellt sich allerdings heraus, dass die Performance des Datenzugriffs mehr oder weniger stark betroffen ist – umso länger, je intensiver das RAID-System Energie auf die Wiederherstellung des Ausgangszustandes verwendet und je mehr Kapazität die Festplatten besitzen. Da kann man dann nur hoffen, dass die Speicherlösung auch in dieser Notlage „reliable“ arbeitet und nicht durch die außerplanmäßige Belastung eines Rebuild einen Shutdown erleidet.

Was des einen Mangel, ist des anderen Stärke. Zum Beispiel Flash: Die anfangs hohe Performance leidet mit zunehmender Benutzung des schnellen Speichers. Der Grund liegt in der Blockstruktur des Speichermediums. Wird der Speicherplatz knapp, müssten manchmal nur einzelne Daten gelöscht werden, um Platz zu schaffen. Doch jeder Löschvorgang wird auf zigtausende von Datenzellen angewandt. Das kostet Zeit und zieht die Performance nach unten. Ein eigener Prozessor, der sich um die Garbage Collection, also das Aufräumen, kümmert, kann hier vieles verbessern.

Und noch eins zeigt sich deutlich: Das Vorhandensein von Strom ist die Basis dauerhafter Speicherung. Das ist selbstredend ein Widerspruch, der sich bei der weiteren Miniaturisierung nichtflüchtiger Speicher bemerkbar macht. Prozessoren mit 7-Nanometer-Strukturen zu bauen, wird wohl in naher Zukunft möglich sein. Für Halbleiterspeicher unter 14 Nanometern indes sieht das anders aus, da sie ohne permanente Stromzufuhr, so wie bei den DRAMs, ihre Inhalte nicht über ausreichend lange Zeiträume halten können.

Der Universalspeicher ist eine Fiktion

Die fünf Dimensionen der Speichertechnik waren, so viel ist durch die Kostendimension deutlich ersichtlich, ein Grund, das Speicherproblem zu zerlegen. Technisch ausgedrückt, wird das mittels Tiering bewerkstelligt. Diese Stufen der Speichertechnik, früher gerne als Pyramide oder als 80:20-Regel beschrieben, moderner auch mit Hitzegraden belegt wie „hot“, „warm“ und „cold storage“, zergliedern das Problem der Datenhaltung.

Nur ein kleiner Teil der in einem Unternehmen gespeicherten Daten ist in aktiver Benutzung, ein größerer Teil wird zu unregelmäßigen Zeiten immer wieder mal (warm) aktiviert, und der weitaus größte Teil ist in einem archivierten Zustand (kalt) gelagert, so dass die Reaktivierung einen erheblichen Arbeitseinsatz fordern würde.

Die Realisierung der meist dreistufigen Umsetzung ist nach langem Stillstand nun in einem dynamischen Veränderungsprozess begriffen. War die Aufteilung „gestern“ noch DRAM/Flash, Festplatte und die Überlebenskünstlertechnik Tape, so zeichnet sich heute aus Kostengründen eine mehrstufige Flash-Architektur ab, die auf lange Sicht mit Hilfe modernster Speichertechnik zu einem Halbleiterspeicherrechenzentrum führen wird.

Doch nicht nur die Sicht auf die „heißen“ Daten ändert sich, auch der Blickwinkel auf „kalte“ Daten gerät in Bewegung. Die Entwicklung der IT, grob gekennzeichnet mit Big Data oder etwas anspruchsvoller als Digitalisierung/ Industrie 4.0, nagt an dem lang bewährten dreistufigen Konzept.

Man debattiert über den Universalspeicher, einen Speicher, der alle fünf Dimensionen befriedigen kann. Das allerdings nicht aus Bequemlichkeit, sondern weil der maschinelle Zugriff und die beständige Auswertung aller Datenbestände auf allen Storage-Tiers gegeben sein müssen.

Der Objektspeicher ist ein deutlich sichtbare Zeichen. Zwar gehen viele noch von einer Ablösung von NAS und Blockspeicher durch diesen neuartigen Speicher aus. Der Objektspeicher eignet sich allerdings noch viel besser als hochverfügbares Datensammelbecken für das Training von „intelligenten“ Maschinen wie Autos, Sprachassistenten und wissensbasierten Systemen wir IBMs Watson oder dem Gegenstück H (olmes) bei Hitachi.

(ID:44620363)