16 Jahre Rückblick auf die Storage-Welt Vom Speicherpool zur High-Performance-Analyse
Storage-Insider feiert in diesem Jahr das Zehnjährige. Eine lange Zeit, die vielen in der IT mindestens so lange vorkommt wie ein Vierteljahrhundert. Die Wechsel von Technologien, mit denen man die Probleme des Geschäftslebens lösen wollte, erfolgen nämlich so rasch, dass man sich nach kurzer Zeit kaum mehr erinnert, was gestern wichtig erschien. Ein Blick zurück.
Anbieter zum Thema

Lässt man die Zeit Revue passieren, so werden sich viele an das Y2K-Problem erinnern. Es herrschte große Aufregung in allen Programmierabteilungen, ob Geschäftssoftware reif für das nächste Jahrtausende sei. Da bei Datumseingaben meist nur die letzten beiden Ziffern erfasst wurden und das Jahrhundert als unveränderlich unterstellt war, stand man im Jahr 2000 auf einmal vor dem Problem, dass die nächsten 99 Jahre sich nicht mehr von den 99 Jahren davor unterscheiden würden.
Das große Teilen
Im Jahr 2000 wurde auch die Dotcom-Blase entdeckt, die kurze Zeit später platzte. Wer erinnert sich noch an Sun, Enron, Boo.com, die deutsche Mobilfunklandschaft jener Tage oder daran, dass es damals zig Festplattenhersteller gab. Nachdem Milliarden in Internet-Startups investiert waren, die mit ihren Ideen den ganzen Globus beglücken wollten, wusste im März 2000 jeder, dass die hochspekulierten Geschäftsideen das Papier nicht wert waren, auf dem sie standen. Milliardensummen waren verbrannt, zurückgeblieben ist die grundlegende Idee der Digitalisierung, die dazu führen wird, dass das Internet der Dinge alles und jedes mit Sensoren bestücken will.
Doch das ist Schnee von vorgestern. Der eigentliche rote Faden, der sich schon immer durch die IT zieht: Sie ist so teuer, dass man nicht nur dauernd auf der Kostenbremse steht, sondern den permanent erzielten Innovationsschub auf immer mehr Anwender verteilen muss, um die Kosten zu rechtfertigen.
Der Punkt in der Internetadresse war Sun, das Netzwerk der Computer. Ein guter Werbespruch, der Sun überlebt hat. Inzwischen ist die Branche weiter, jedes technische Detail, CPU, Cache, Bus, wird geshared, bis hin zur hochgelobten Cloud. Nicht ganz geklärt ist nur noch, ob meine Daten mir gehören. Die von meinem Auto, können schon heute gegen mich verwendet werden.
Die FC-Fabric ist in einer Sackgasse
Trotz der ökonomischen Delle waren die Weichen für ein enormes Datenwachstum gestellt. Jeder wollte seitdem alle Daten mit fast 100prozentiger Gewissheit verfügbar haben, weil das konkurrierende Angebot nur noch einen Mausklick entfernt ist. 2003 war deshalb das Fibre-Channel-Netzwerk (FC) das Non-Plus-Ultra für große Anbieter.
Obwohl das FC-Protokoll (FCP) eigentlich für das immer zeitaufwendigere Backup erfunden worden war, stellt sich schnell heraus, dass es Vorteile bringen könnte, wenn man alle Daten in einem eigenen Netzwerk, dem Storage Area Network (SAN), konzentrieren würde.
Storage-Hersteller wie EMC, IBM und HP trieben diese Entwicklung voran, erfanden nebenbei die speicherzentrische Sicht auf die IT, und wollten die Unternehmensdaten nicht mehr in dezidierten Storage-Subsystem unterbringen, sondern alle in einem großen Pool sammeln und dann mittels Clustern im Unternehmen unterbrechungsfrei verfügbar machen.
Der "Sharing"-Gedanke eines SAN erwies sich im Rückblick als Rückschritt. Zwar war das Fibre Channel Netzwerk eine technische Meisterleistung, litt aber Zeit seines Lebens daran, dass er den globalen Anspruch der Ethernet-Vernetzung auch mit vielen Tricks nicht erreichen konnte.
Netapp hielt mit seinen Filern dagegen und vermarktete das wesentlich einfacher zu installierende NAS (Network Attaches Storage) als die kostengünstigere Speichervariante. Ganz konnte sich Netapp dem Wunsch der Anwender nach dem stabilen und bei den Antwortzeiten vorhersagbaren FC nicht entziehen und propagierte zusammen mit dem Erzkonkurrenten EMC den Universal Storage.
Diese Idee wird sicherlich eines Tages wiederbelebt. Geblieben ist den Anwendern der Hybrid-Speicher, in dem derzeit das gute alte Modell der Speicherhierachie von der Festplatte bis zum Bandlaufwerk kulminiert. Dieses Modell wird wahrscheinlich in Kürze in der alten Form wiederbelebt, nur dass dann ein Global Name Space die Daten aller Altersstufen zusammenhalten wird und den Analystenwünschen gemäß umsortieren kann.
Original und Kopie unterscheiden sich nur durch einen Pointer
Ein wichtige technische Entwicklung war 2004 die Vermeidung von Duplikaten. Deduplication nannte Data Domain seine Technik, die bei der Reduzierung des Backup-Volumen brillierte.
Ein wenig Software, Stichwort Digitalisierung der IT, machte es möglich, dass identische Datenblöcke als Original mit Speicherbedarf und sogenannte Pointer für die Kopie, das Volumen von Datensicherungen um den Faktor 10 und mehr schrumpften. Snapshots sind die Grundlage dieser Technik.
Mit ein wenig Festplattenplatz in einem schmalen Gehäuseeinschub konnten Anwender auf einen Schlag teure 19-Zoll-Tape-Libraries überflüssig machen und sparten auch noch bei den Lizenzkosten erhebliche Beträge ein. Diese Technik sorgte kurzzeitig für eine Startup-Schwemme, die fast so schnell aufgekauft wurden wie sie auf den Markt kamen.
Mit der Übernahme von Data Domain durch EMC war klar, dass diese Software-Technik den Enterprise-Markt erobert hatte und heute in diversen Subfunkionen wie Change Block Tracking (CBT) oder „Flow an Packet Dedup“ zum Stand moderner IT gehört. Dumm nur, dass inzwischen auch die gut komprimierbaren Datenbank-Anwendungen mit Deduplizierungs-Funktionen ausgestattet werden und so dieser technisch brillanten Idee das Wasser abgraben. Die Delle im Datenwachstum war einmal.
Aus Hardware wird Software wird Hardware
Während sich EMC, HP und Dell noch im Jahr 2011 mit dem Einsatz von 5 Milliarden Euro um den Erwerb von Isilon, 3Par und Compellent stritten, die die eigenen veralteten Systemarchitekturen auffrischen sollten, waren die Weichen durch eine 1998 gegründete Firma namens VMware schon ganz anders gestellt.
Die Servervirtualisierung mit dem Hypervisor verbilligt den Rechnereinsatz, übernimmt Funktionen des Storage-Controller und sorgt scheinbar dafür, dass die schon lange gehegten Befürchtungen der Speicherbranche wahr werden: Storage wird zu Commodity. Die Hardware-Spitzentechnik im Controller – ein weiteres Opfer der Digitalisierung. Der im Werden begriffene Ersatz heißt Software-defined Storage (SDS).
Doch so Einheitsbrei-mäßig wie viele sich das vorstellen, wird es nicht werden. Storage-Controller sind so speziell, dass ihn Software oder ein Hypervisor nicht ersetzen kann. Der Controller wird - als Software "wiedergeboren" - in den nächsten Jahren eine wichtige Rolle spielen und die Speicherung der wachsenden Datenmengen verbilligen.
Doch Software, die einen Controller emuliert, hat den Nachteil, dass sie immer noch herstellerspezifisch ist. Schon deshalb gibt es die vielbeschworene Herstellerunabhängigkeit bei SDS nicht. Und noch etwas fehlt der großen Commodity-Veranstaltung: herstellerübergreifende Monitoring- und Steuerungs-Schnittstellen der unverzichtbaren Speicher-Hardware das Gehäuse und die Speichermedien.
Woher sonst weiß sonst der Storage-Operator welche Hardware er austauschen soll. Da hilft auch keine Augmented Reality Brille, wenn man nicht weiß in welchem RZ-Gang, in welchem Rack, in welchem Enclosure welches Speichermedium zu wechseln ist, das vielleicht auch erst in drei Wochen ausfallen wird.
Der Storage-Pool wird zur SDS-Cloud
Das Datenwachstum ist ungebrochen. Das bleibt auch so, da zur Erkenntnis der Welt eine immer feinere Sicht auf jedes Detail notwendig wird - einmal abgesehen von der Bequemlichkeit sich von Hilfsmitteln wie Smartphones, Wissensbrillen, virtuellen Spielen, dem selbstfahrenden Auto und Robotern an jeder Ecke das Leben schöner gestalten zu wollen.
Trotz SDS ist das Speichermedium weder Commodity noch billiger geworden. Vielleicht wird der Weg in die Cloud einfacher, von preiswerter redet ja uach keiner mehr. SDS ist aus "technologischer" Sicht nicht viel besser als ein Festplattenarchiv.
Vielmehr stellt sich die Frage, wird es in Zukunft noch externe Primärspeicher geben. Dagegen spricht die Entwicklung bei der Halbleiterspeichertechnik. Nicht SDS macht den Storage-Controller überflüssig, sondern Flash die Festplatte.
Die aktuelle Flash-Technik ist nur der Startschuss dazu, die letzten Performance-Reserven aus den physikalischen Grenzen rauszuholen:
- Selbst das scheinbar schnelle Licht legt in den Schaltzeiten eines Dynamischen RAMs von 10 Nanosekunden nur noch 3 Meter Weg zurücklegt, in 10 Millisekunden (Festplattenzugriff) sind es 3.000 Kilometer. Die Auswirkungen auf Speicher in Multi-Cloud-Strukturen sind noch unklar.
- Und auch eine feststehende Regel wie das „Moore´sche Gesetz“ verliert seine Gesetzmäßigkeit, gibt man höchstpersönlich bei Intel zu.
- Die Strukturbreiten bei Flash-Chips kommen mit 10 Nanometern in den Grenzbereich von wenigen Atomlagen. Die Prinzipien der planaren Halbleitertechnik funktionieren also nicht mehr lange.
Bis sich diese Entwicklung auf die aktuelle High-Speed-Speichertechnik auswirken wird, werden noch einige Jahre ins Land gehen. Allerdings ist bei den zukünftigen Big-Data-Analysen jede Nanosekunde wichtig. Im Augenblick agieren die meisten Hersteller bei Zugriffszeiten knapp unter 1 Millisekunde. Einige wenige erreichen Latenzzeiten unter 100 Mikrosekunden. Faktor 10.
Erste Vorschau für das nächste Jahr
Und hier tut sich die zweite Chance für die Besten der Speicherbranche auf: Lieferant von extrem schnellem Speicher für die Finanzbranche, Genomik, Unterhaltungsindustrie, Energiebranche und ganz allgemein für die High-Performance-Analyse zu werden. Je schneller der Speicher, desto Echtzeit und damit näher am Kunden, heißt das Motto.
Doch zwischen 10 Nanosekunden für den Zugriff bei DRAMs und dem derzeit schnellsten Flash Storage mit 100 Mikrosekunden, da liegt noch der Faktor 10.000. Samsung kündigte gerade an, dass das Unternehmen in Kürze MRAMs ausliefern will, die dann das DRAM-Memory ersetzen sollen und auch bei RRAMs stehe man vor dem Durchbruch. Dann würde Samsung der eigenen erfolgreichen Flash-Produktion das Stoppzeichen vorhalten.
Nachdem Speicher jahrzehntelang zur Behinderung der IT erklärt wurde, hat sich durch Halbleiterspeicher das Blatt vollständig gedreht. Die nächste Generation der Highspeed-Speicher wird als Fabric oder Grid Dutzende der ehemals schnellen Server mit Daten versorgen. Es könnte sogar sein, dass die Recheneinheiten näher an den Speicher gebracht werden müssen. 16 Jahre speichertechnischer Entwicklung kommen einem wirklich wie ein halbes Jahrhundert vor.
(ID:44057827)