Stimmen aus der Datenspeicherbranche Gibt es noch Spielraum für echte Innovation?

Autor / Redakteur: A3 Communications* / Dr. Jürgen Ehneß

Die Datenspeicherbranche brachte in den vergangenen neun Jahrzehnten zahlreiche bahnbrechende Technologien sowie Architekturen auf den Markt, von denen viele heute noch, Jahre seit sie zum ersten Mal auftauchten, relevant sind. Anbieter kündigen tagtäglich neue Produkte an, die scheinbar etwas anderes bieten als die schon erhältliche Vielzahl von konkurrierenden Lösungen.

Firmen zum Thema

Neuer Wein in alten Fässern? Auch im Storage-Bereich werden Produkte als „innovativ“ angepriesen, deren zugrundeliegende Technologien so neu gar nicht sind.
Neuer Wein in alten Fässern? Auch im Storage-Bereich werden Produkte als „innovativ“ angepriesen, deren zugrundeliegende Technologien so neu gar nicht sind.
(Bild: gemeinfrei / Pixabay )

Sind dies aber lediglich einfache Aktualisierungen bestehender Technologien mit ein paar Optimierungen und Ergänzungen? Oder sind sie wirklich innovativ? Können Datenspeicheranbieter noch innovativ sein zu einer Zeit, in der schon so viel entwickelt worden ist?

Werfen wir einen Blick zurück ganz auf den Beginn der Speicherbranche im heutigen Sinn, um eine Antwort darauf zu finden. Vor knapp einem Jahrhundert, 1928, patentierte der österreichische Wissenschaftler Fritz Pfleumer das erste Magnetband. Bänder spielten seither eine maßgebliche Rolle beim Speichern von Daten. Veniamin Simonov, der leitende Produktmanager bei Nakivo, stimmt zu: „Seit dem Magnetband gab es zahlreiche Durchbrüche in der Datenspeicherbranche, die im Lauf der Jahre dazu beitrugen, Datenspeicherverfahren insgesamt zu revolutionieren.“ Seither erlebten wir den Übergang zu Plattenspeichern (Disketten-, Festplattenlaufwerke, optische Laufwerke et cetera).

„Im Frühstadium neuer Ansätze“

Wie hat sich jedoch die Speichertechnologie als solche im Lauf der Zeit entwickelt? Seit den Anfängen der Datenspeicherung brachte die Branche verschiedene Lösungen hervor: vom Band zur Platte, von SSDs zu Flash-Speichern. Man strebte an, die Speicherdichten zu erhöhen, führte Architekturen ein, die darauf zielten, den Datenstandort sowie Abrufgeschwindigkeiten zu maximieren. Laut Andrew Buss, Research Director European Enterprise Infrastucture bei IDC, ist noch mit viel mehr zu rechnen: „Wir sind vom Band zur Platte übergegangen, und nun ist die Umstellung auf den Flash-Speicher im Gang. Wir befinden uns im Frühstadium neuer Ansätze. Dazu gehören etwa persistente Intel-Optane-Speicher. Sie ermöglichen eine hohe Leistungsfähigkeit sowie äußerst langlebige Speichermedien und die Ergänzung einer weiteren Caching-Stufe für den Speicher beim Hinzufügen zum Speicherbus als DIMM-Speicher. Darüber hinaus könnten neue Materialien und neue Auskleidungstechnologien, wie etwa Graphen, der einfachen rotierenden Platte wieder zentrale Bedeutung zukommen lassen in Anwendungen, bei denen die Leistungsfähigkeit in Echtzeit nicht so entscheidend ist. Wir werden sicherlich noch viele Weiterentwicklungen erleben, wie etwa holographische Speicherung oder sogar DNA-basierte Speicherung.“

Innovation erzeugt Innovation, erklärt Antonio Barbalace, leitender Dozent an der Fakultät für Informatik an der Universität Edinburgh: „Neue Hardware-Schnittstellen wurden mit dem Einsatz Flash-basierter Speichergeräte eingeführt, einschließlich dem maßgefertigten, nichtflüchtigen Speicher (NVMe). NVMe entwickelt sich ständig weiter. Mehrere unterschiedliche Schnittstellen-/Protokollvarianten wurden vorgestellt, wie etwa OpenChannel, sowie in Zonen unterteilte Namensräume und Rechenspeicher.“

Weg zur Quantenspeicherung

Curtis Anderson, Software-Architekt bei Panasas, greift diesen Aspekt auf und entwickelt ihn weiter: „Wenn man Bänder, Platten, Flashs, NVDIMMs etc. als ,Basistechnologien‘ bezeichnet, dann wird mit der Zugabe einer weiteren Basistechnologie die Konnektion zwangsläufig ein weit breiteres Spektrum an Optionen bieten. Die wirkliche Innovation ist jedoch, wie diese unterschiedlichen Basistechnologien zu funktionstüchtigen Systemen zusammengefügt werden.“

Kam Eshghi, Chefstratege (CSO) bei Lightbits Labs, stimmt dieser Meinung zu: „Wir werden weiterhin schrittweise Entwicklungen sehen, bis wir einen Sprung schaffen – wie etwa vom Papertape zum Magnettape, zu Laufwerken, zu Halbleitermedien. Der nächste Entwicklungssprung wird einen Phasenwechsel oder Memristor bringen – und letztendlich den Weg ebnen zur Quantenspeicherung. Dazwischen wird es viele kleine Verbesserungen geben mit Blick auf die Geschwindigkeit, Dichte sowie die Kostenkontrolle.“

Ist es deswegen für Anbieter insgesamt immer schwieriger, wirklich innovative Produkte auf den Markt zu bringen? Ja und nein, sagt Randy Kerns, leitender Stratege beim Elevator-Konzern: „Auf den ersten Blick scheint es so zu sein, aber Innovationen umfassen zwangsläufig nicht bloß neue Technologien, sondern in Wirklichkeit die Anwendung neuer Technologien.“

Reduktion der physischen Speichergröße

David Trachy, Leiter für Wachstumsmärkte bei Spectra Logic, meint, dass der gegenwärtige Kampf, Angriffe auf Daten abzuwenden, einen Einfluss auf den Schwerpunkt haben wird, den Anbieter ihren FuE-Aktivitäten geben: „Aufgrund der zunehmenden Attacken, wie etwa Ransomware, werden wir vermutlich die bedeutendsten Innovationen bei der Software verzeichnen, insbesondere hinsichtlich des Datenschutzes.“ Es werden immer noch Milliarden von Dollar für FuE ausgegeben, um die Vorstellung zu rechtfertigen, dass eine brandneue Innovation kurz bevorsteht. William Toll, Produktmarketingsleiter bei Acronis, erklärt: „Es gibt immer eine fortlaufende Reihe an neuen Speicherinnovationen, von denen viele aus dem Innovationstempo der ,Nano‘-Technologien stammen, die zum Ziel haben, die Größe des physischen Speichermediums zu reduzieren. IBM, Microsoft etc. veröffentlichen weiterhin ihre Forschungsergebnisse im Kontext von Zukunftstechnologien, die sich stark von denen unterscheiden, die momentan auf dem Markt sind. Beispielsweise Microsofts Siliziumdioxid-Projekt – die erste Speichertechnologie für die Cloud, die von Grund auf konzipiert und gestaltet wurde. Diese Technologie ist angewiesen auf ultraschnelle Laseroptik zur Speicherung von Daten in Quarzglas und wird als eine Möglichkeit angepriesen, die zu einem kompletten Umdenken des traditionellen Speichersystemdesigns führen könnte.“

Laut Paul Speciale, Chief Product Officer bei Scality, „gab es in den letzten Jahren einige wirklich bedeutende Speicherproduktinnovationen. So etwa neue Lösungen für die Datensicherung mit Deduplizierung, um auszuschließen, dass dieselben Daten viele Male redundant gesichert werden.“ „Neue hyperkonvergente Lösungen haben den Einsatz und die Effizienz vereinfacht, und die Objektspeicherung ermöglichte eine enorme Skalierbarkeit von Milliarden an Dateien. All diese Innovationen wurden im Kern von sich verändernden Kundenbedürfnissen angetrieben, wie etwa erhöhten Datenwachstumsraten, Zugriff von mehr Benutzern über die Cloud sowie auch dem Bedürfnis, insgesamt leistungsfähiger zu sein“, fügt Speciale hinzu.

SDS und Cloud

Endnutzerbedürfnisse sind tatsächlich eine maßgebliche Triebkraft für Datenspeicherinnovationen. Der Branchenveteran Alex McDonald, Vorsitzender in etlichen technischen Gruppen bei SNIA EMEA und USA, stimmt zu: „Not macht erfinderisch. Benutzer sind sehr bedürfnisfreudig, und die Speicherbranche ist sehr erfinderisch. Ich denke, die Branche hat diese Kriterien im Blick, da schlussendlich alle ihre Daten schneller, billiger und umfangreicher speichern wollen. Externe Anforderungen haben im Lauf der Jahre Innovationen vorangetrieben, und somit wurden Anwendungen für Pfleumers Bänder, rotierende Platten aus Eisenoxid bis hin zu persistenten Speichern aus Glas gefunden.“

Die Software-definierte Speicherung (SDS), bei der die Hardware und die Software entkoppelt sind, ist eine herausragende Innovation, die der Branche enorm geholfen hat. Die Produktivität der Administratoren wurde erhöht dank der Option, Automatisierung einzusetzen, um mit den sich verändernden Bedürfnissen schritthalten zu können sowie Endnutzern die Freiheit zu gewähren, die Controller-Software sowie -Hardware von unterschiedlichen Anbietern zu nutzen. Akzeptanzraten der Cloud-Speicherung schließlich ermöglichten es der gesamten Branche, zu wachsen.

Verbrauchsbasiertes Modell

Interessanterweise stimmt der leitende Analytiker Scott Sinclair (ESG) der Auffassung, dass traditionelle Technologiefunktionen revolutioniert wurden, nicht zu: „Man sieht keine große Vielfalt an Innovationen bei traditionellen Funktionen, wie etwa Snapshots. Dennoch bieten Speicheranbieter zahlreiche Innovationen in anderen Gebieten, wie etwa die Einbeziehung künstlicher Intelligenz (ob im Array integriert oder Teil einer externen Managementplattform), die Telemetriedaten vom Speicher-Array sammelt, um den Administratoren umsetzbare Erkenntnisse oder sogar Automatisierung zu bieten. So kann etwa das System den Arbeitsanfall effizienter skalieren, Maßnahmen zur Problemdiagnose oder -beseitigung vorschlagen sowie automatisch Speicherressourcen optimieren, wenn sich Anwendungsbedürfnisse ändern, indem es diese Daten sowie integrierte Intelligenz einsetzt. Anbieter offerieren auch Innovationen, um ihren Speichersystemen zu helfen, die Bedürfnisse des Cloud-nativen oder Container-basierten Arbeitsanfalls effektiver zu unterstützen. Ein weiteres Innovationsgebiet stellt ein verbrauchsbasiertes Modell zur Beschaffung von Speicherressourcen dar (im Gegensatz zu einem CAPEX-basierten Modell). Dies sind nur einige Beispiele. Unterm Strich sind viele Innovationen im Gang, aber nicht alle werden gegebenenfalls auf einem herkömmlichen Datenblatt erscheinen.

„Ich denke, wir werden künftig sowohl die Entwicklung bestehender Technologien als auch einige bahnbrechende Innovationen erleben“, resümiert Steve Ashurst, europäischer Geschäftsführer bei FalconStor.

Konkurrenz ist gesund

Der Innovationsgrad unterscheidet sich je nachdem, was wir uns innerhalb der Speicherbranche genauer ansehen. Richten wir beispielsweise den Fokus auf Speicherfunktionen, können wir Entwicklungen beobachten, die von erweitertem Support von Cloud-nativen oder Container-basierten Anwendungsumgebungen bis hin zur Optimierung des hybriden oder Multi-Cloud-Speichermanagements reichen, indem Intelligenz in das Speichersystem integriert wird, um den IT-Betrieb zu vereinfachen (oder gar zu automatisieren).

Der Wettbewerb stellt eine weitere Triebkraft für Innovationen dar. Der Markt ist bereits gesättigt mit verschiedenen Lösungen für die individuellen Speicherprobleme der Endnutzer. Grundsätzlich ist Konkurrenz gesund, wie in jeder Branche, und kann dazu führen, dass Anbieter die Produktentwicklung noch stärker vorantreiben, um sie so marktfähig und benutzerfreundlich wie möglich zu gestalten. FalconStors Ashurst erklärt: „Wir beobachten, dass bestehende, etablierte Anbieter mit aufstrebenden Marktteilnehmern stark konkurrieren.“

Neue Trends sowie neue Herausforderungen sind weitere, offensichtliche Triebkräfte für die Datenspeicherinnovation. Scalitys Speciale stimmt dem zu: „Neue Probleme erfordern neue, innovative Lösungen. Wir beobachten dies momentan besonders deutlich, da die Technologielandschaft sich stark verändert mit der Verschiebung auf Cloud-nativ. Dies wird naturgemäß eine ganze Reihe von Innovationen nach sich ziehen.“

Lebenszyklus von IT-Produkten

Tim Klein, ATTO Technologys CEO, weist darauf hin, dass trotz einer Vielzahl von Produkten, die regelmäßig auf den Markt gebracht werden, die meisten Endnutzer dazu neigen, vorsichtig zu sein bei der Einführung neuer Technologien und Lösungen: „Datenzentren sind grundsätzlich von Natur aus zurückhaltender als diejenigen, die neue Speichertechnologien und -konnektivität früh akzeptieren. Da Zuverlässigkeit grundlegend für das Leitbild von Datenzentren ist, besteht sicherlich eine Tendenz, vertraute Technologien erst einmal beizubehalten und sie nur stufenweisen zur Verbesserung immer wieder zu aktualisieren.“ Der Lebenszyklus von IT-Produkten spielt zudem eine Rolle bei der Akeptanzkurve, erklärt Speciale: „Die meisten Kunden gehen nicht sehr gründlich vor, wenn es darum geht, festzustellen, welche Daten wo gespeichert sind. Viele neigen dazu, lax zu sein – sie sind daran interessiert, Daten zu löschen, um Speicherplatz zurückzugewinnen. Dies führt zu durchschnittlich etwa drei bis fünf Jahren Lebensdauer mit Blick auf die meisten Lösungen, insbesondere auf Seiten der Hardware-Plattform. Dies bedeutet wiederum, dass man im Datenzentrum überwiegend Lösungen, die jünger als fünf Jahre sind, vorfindet.“

Um wirklich erfolgreich zu sein, muss eine neue Technologie oder Architektur auch kostengünstig sein, da es ein sehr kostspieliges Unterfangen sein kann, Hunderte oder gar Tausende an Servern mit einer neuen Technologie zu ergänzen. „Im Grunde ist es finanziell untragbar, ausschließlich die neueste, beste, skalierbare Technologie zu verwenden“, erklärt Lightbits Labs Eshghi. „Der größte Kapazitätsanteil in Datenzentren und der Cloud beruht noch immer auf rotierenden Laufwerken. Die Ausgaben sind jedoch stark unterschiedlich – weil etwa Flash-Laufwerke viel teurer als rotierende Laufwerke sind, wird mehr ausgegeben, obwohl die Kapazität des verkauften Flash-Speichers kleiner als bei rotierenden Laufwerken ist.“

Innovationen sind eine Notwendigkeit

Was nun machen Anbieter, die nicht schnell und häufig genug Neuerungen einführen? Sie gehen das Risiko ein, im Markt an Bedeutung zu verlieren. Ein Mangel an Innovationen macht es unwahrscheinlich, dass ein Anbieter als Marktführer eingestuft wird. Das Ergebnis ist, dass das Unternehmen den Betrieb einstellen muss oder übernommen wird. „Ich glaube, dass der größte Teil der Technologie sowie auch die darauf ausgerichteten Hersteller nach zehn Jahren überholt sind, es sei denn, sie schaffen es, sich weiterzuentwickeln“, bekräftigt FalconStors Ashurst.

Innovationen sind für die meisten Anbieter eine Notwendigkeit, wenn sie ihre Stellung am Markt behaupten möchten, aber der Innovationsgrad, den der Anbieter erreichen kann, ist ausschlaggebend. Die grundsätzliche Möglichkeit, den Markt mit einem neuen Produkt oder einer neuen Dienstleistung in den Bann zu ziehen, erlaubt es Unternehmen, einen Durchbruch zu erzielen und Branchenführer zu werden, anstatt dieselben Technologiearten wie alle andern zu verfolgen. Datenspeicherung mag wohl schon viele Jahre existieren, aber es gibt immer noch Spielraum für Anbieter, Neuerungen zu schaffen und Endnutzer mit bahnbrechenden Produkten zu überraschen. Dies kann mit bestehenden, weiter optimierten Technologien und Architekturen erreicht werden oder mit einer brandneue Lösung. Auf die eine oder andere Art wird es immer etwas Neues und Funkelndes geben am Speicherfirmament, das die Branche auskundschaften kann.

*Die Autoren: A3 Communications, PR-Agentur für Data Storage

Aktuelles eBook

Speichertechnologien im Vergleich

HDD, Flash & Hybrid: Der passende Speicher für jeden Einsatz

eBook HDD, Flash und Hybrid
eBook „HDD, Flash & Hybrid“
(Bildquelle: Storage-Insider)

In diesem eBook lesen Sie, welche verschiedenen Speicher es gibt und welche Vor- und Nachteile diese haben.

Die Themen im Überblick:

  • Der passende Speicher für jeden Einsatz – HDD, SSD und Tape
  • HDDs: Heimvorteil und neue Technologien
  • Flash-SSDs & Co.: wie ein geölter Blitz
  • Storage-Arrays unter die Haube geschaut – SSD, HDD und Hybrid
  • Tape: die Kunst der Langzeitarchivierung

(ID:47769818)