Spekulationen über die Speicherzukunft

Die Magie hinter dem Datenwachstum

| Redakteur: Rainer Graefen

Wann läuft der dynamische Speicherpool über?
Wann läuft der dynamische Speicherpool über?

Was bringt die Zukunft? Auf jeden Fall hat diese Fragestellung viele Prognosen gebracht, die nach dem Jahreswechsel die Fachzeitschriften und Online-Sites gefüllt haben. Damit ist eines auf jeden Fall schon mal sicher: Die Zukunft bringt mehr Speicherbedarf.

Ob wir tatsächlich auch mehr Speicherkapazität benötigen würden, ist jedoch seit langem eine Frage, die viele Menschen umtreibt. Das fängt an mit öffentlich zugänglichen Dokumenten, die viel zu viele in privaten Besitz nehmen wollen.

Und endet mit sozialen Netzwerken, in denen jedem die Berechtigung gewährt wird, all das zu veröffentlichen, was er oder sie heute so verstanden und getan hat oder wie man ganz generell die Vergangenheit, Gegenwart und Zukunft der Welt sieht.

Wo viel Wachstum, da ist der Kompressionsgedanke nicht weit

Nichts wird ausdiskutiert und so manifestiert sich die Beliebigkeit des persönlichen Gedankens als individuelles Profil, das selbst als Hyperlink viel Platz benötigt und unlöschbar im Internet kursiert. Das Ganze wieder zusammengenommen und statistisch aufbereitet ist dann Ausgangspunkt für noch viel größere Speicherbedürfnisse, die Big Data, die zur weitergehenden Bedürfnisbefriedigung von vielen Unternehmen kopiert, gefiltert und gesiebt gehören. Die Speicherbranche mit ihren Start-up-Sputniks blickt demzufolge in eine rosige Zukunft.

Das sogenannte Datenwachstum braucht demzufolge nicht nur Platz, sondern bietet deshalb auch viel Raum für großartige Geschäftsideen. Ganz oben steht dabei die physische Verkleinerung des Bit-Äquivalents. Das ist Aufgabe der angewandten Grundlagenforschung, die den Speicherplatzbedarf für das einzelne Bit per Racetrack-Memory, Memristor, Phase Change Memory, MRAM und anderen mehr auf ein Minimum reduzieren möchte.

Kommen diese Technologien eines Tages auf den Speichermarkt, dann ließen sich Daten schneller und durch nichtflüchtige Speichertechnik mit weniger Energie und bei einem Hundertstel heutigen Platzbedarfs über viele Jahrzehnte speichern. Die Historiker der Zukunft werden es uns danken.

Von hier ist also noch viel zu erwarten, und zwar Miniaturisierung mit all ihren positiven wie eventuell auch gefährlichen Aspekten des Nano-Raumes.

Gehen Startups die Ideen aus?

Da tun sich die Entwicklungsingenieure der Storage-Startups wesentlich härter, die mit Nischenprodukten versuchen, das Interesse von Kapitalgebern am schnell zu verdienenden Geld zu wecken. Ein Blick in die Datensammlung meines französischen Kollegen Jean-Jacques Maleval bietet derzeit leider wenig Überraschendes. Zwar wurden von Wagniskapitalgebern in 55 Finanzierungsrunden eine Milliarde US-Dollar an Startups verteilt, Innovatives ist in den Kurzbeschreibungen der Geschäftstätigkeit allerdings nicht zu erkennen.

Die 31 Startups, die 2010 und 2011 als Geldsammler sichtbar wurden, wollen

• das Online-Backup mit Gateways oder Hybrid-Storage in „unendliche“ Speicherdimensionen treiben,

• Software as a Service (SaaS) für Echtzeitspeicheranalysen voranbringen und

• SSD-Caching-Technik im Speicher wie in der Cloud billiger machen.

Ein wenig aus der Reihe fallen da die Absichtserklärungen von ZeroDesktop, einen Content-Navigator für die Cloud zu erfinden, oder von Exablox, das ein Dateisystem schaffen will, das robuster als ZFS ist.

Bis auf die Firma Syylex, die sich mit Glas-basierten optischen Laufwerken für die Archivierung beschäftigt, gibt es kein deutsches Startup in der Liste. Weitet man den Startup-Blick auf Europa aus, kommen drei weitere Kandidaten hinzu. Auch die französische Firma Essilex treibt die Langzeitarchivierung auf optische Laufwerke um. Ebenfalls aus Frankreich kommt das Startup Lunabee Studio, das die Daten von iPhone und iPad speichern will. In Spanien brütet noch VirtualSharp Software über der Disaster-Recovery-Zusicherung für virtuelle Datacenter. Das war es in Europa.

Und wer hat das meiste Geld eingesammelt? Mit 250 Millionen US-Dollar steht Dropbox in der Maleval-Liste ganz oben, danach folgt Box.net (wie Dropbox ein Angebot für das Online File Sharing) mit 129 Millionen und die SSD-Cache-Protagonisten von Violin Memory mit 72 Millionen. In deren direkten Konkurrenten Fusion-IO wurden 2010 45 Millionen US-Dollar investiert. Laut Gerüchteküche haben Apple, EMC und IBM ein Auge auf Fusion-IO geworfen.

Nischenmarkt Alleskönnerspeicher

Während viele Startups ihr Glück versuchen, indem sie eigentlich schon existierende Lösungen wie Filesysteme, Disaster Revocery und Backup für den Betrieb in einer Cloud erweitern, so stehen bei den Realprodukten funktionelle Erweiterungen an, die aber vor allem von den jeweiligen Herstellern vorangetrieben werden.

Während NetApp schon vor Jahren ein Speichersystem für alles kreierte, kommt diese Sichtweise erst jetzt bei anderen Herstellern an, die entweder ebenfalls von Unified Storage oder konvergentem Speicher reden. So richtig zieht die Idee, ein System für Block und File einzusetzen, beim Anwender nicht.

Es ist arg offensichtlich, dass Unified Storage – bis jetzt – ein Abfallprodukt ist, das der Idee einer Bereinigung der Produktpalette des Herstellers entsprungen ist. Auf der Firmware-Ebene implementiert z.B. EMC grundlegende Funktionen (primitives) so, dass sie plattformunabhängig laufen. Und falls die Funktion doch auf einer höheren Funktionsebene programmiert wurde, gibt es ein Abstraktionsmodell, das diese speziellen Funktionen sowohl im User- als auch im Kernel-Modus betrieben werden können.

Der Anwender hat erst mal nicht viel davon, dass sich EMC die Wartungsarbeiten seiner Softwareentwicklung vereinfacht. Letztendlich löst EMC jedoch das Problem einer Managementumgebung, die typischerweise das globale Monitoring von Speichersystemen erlaubt, aber bei der Steuerung des Systems zur spezifischen Produktsoftware wechseln muss. Das dürfte in virtuellen Umgebungen die Provisionierung wesentlich erleichtern.

Alles können oder lieber billig speichern

Ob sich die Idee „ein Speichersystem für alles“ durchsetzen wird, ist erstens eine Frage des Preises. Angesichts der wachsenden Datenmengen, die viele Unternehmen durchforsten wollen, brauchen die Anwender viel billigen Bulk-Storage, in dem sich auch die Produktkritik aus den sozialen Netzwerken zwischenlagern lässt. NetApp hat sich insofern mit dem Kauf von LSI Storage einen großen Gefallen getan. Wie man hört, laufen die Geschäfte mit den soliden LSI-Produkten gut.

Eine zweite Frage ist die Entwicklung der Objektspeicherung. EMC, Dell und NetApp haben in den vergangenen Jahren entsprechend Firmenzukäufe getätigt und gehen nun mit Produkten langsam auf den Markt. Der Ersatz der bisherigen Filesysteme durch eine objektorientierte Adressierung wird sicherlich nicht schnell erfolgen, aber er dürfte einige Probleme lösen, wie man seine Daten in der Cloud oder auch in Microsoft Sharepoint verwaltet.

Interessanterweise gibt es derzeit keine Startups, die sich dieser inhaltsadressierten Ablage widmen. Es könnte allerdings sein, dass sich die objektorientierte Speicherung in den gerade aufkommenden Cloud-Gateways respektive Hybrid-Storage integriert und sich so als integraler Bestandteil einfach hinter der Oberfläche verstecken wird.

Hochleistungsspeicher versus Appliances

Unfied Storage bekommt drittens aber auch wieder Gegenspieler in Form spezialisierter Lösungen. Am unteren Ende warten in der Form von Appliances sofort einsetzbare preiswerte Spezialisten, am oberen Ende sind dies Blade-Cluster mit mehreren Hundert CPU-Kernen und Hauptspeicher bis in den Petabyte-Bereich.

SAP ist an diesem oberen Ende, wie man den Wirtschaftsseiten in der Tageszeitung entnehmen kann, mit der In-Memory-Technik HANA sehr erfolgreich. Hier wird wahrscheinlich über kurz oder lang eine Debatte in Gang gesetzt, ob Server überhaupt noch mit drehenden Festplatten arbeiten sollten. Das als Echtzeitanalyse titulierte HANA braucht schnellen Hauptspeicher. Auch wenn an dieser Stelle gerne nichtflüchtige Speichersysteme wie die Solid State Disk (SSD) eingeführt werden, sind diese mit den aktuellen NAND-Speicherzellen wieder ein Stück zu langsam.

Und angesichts der aktuellen Ankündigungen von einigen Herstellern, dass man schon 2013 mit der Produktion und Auslieferung neuer und schneller Speicherzellen beginnen werde, heißt das wohl auch, dass die SSD in ihrem jetzigen Aufbau keine Zukunft hat. In der oben angedeuteten Zukunftsvision hätte dann auch eine aktuell sehr erfolgreiche Technik wie das Automated Storage Tiering keinen Platz mehr. Aber ganz so schnell wird die Suppe bekanntlich nicht gegessen und es gibt auch noch andere Ideen, wie sich das Rechenzentrum der Zukunft entwickeln könnte.

Für alle Informationen über Geschäftszwecke und finanzielle Ausstattung von Startups danken wir Jean-Jacques Maleval, Geschäftsführer StorageNewsletter.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 32838450 / Allgemein)