Datenmanagement wird immer wichtiger

Die Zettabyte-Welt schlittert in eine Storage-Krise

| Autor / Redakteur: Jürgen Krebs* / Dr. Jürgen Ehneß

Daten wie Sand am Meer – und zwar im Wortsinne und an allen Stränden zusammen, und das 40 Mal. Und es wird noch deutlich mehr.
Daten wie Sand am Meer – und zwar im Wortsinne und an allen Stränden zusammen, und das 40 Mal. Und es wird noch deutlich mehr. (Bild: © nadezhda1906 - stock.adobe.com)

Rasant steigende Datenmengen verlangen nach immer mehr Speicherplatz. Irgendwann wird die Storage-Kapazität nicht mehr ausreichen. Doch was kommt dann?

Im vergangenen Sommer haben die Analysten von IDC eine Prognose für das weltweite Datenwachstum bis 2025 vorgelegt, und – Überraschung! – die Zahlen sind atemberaubend. Während sich 2019 die globalen Datenbestände auf etwa 40 Zettabytes belaufen, sollen sie bis 2025 auf 175 Zettabytes anwachsen. Wieder eine neue Größenordnung, die von den meisten mit Achselzucken quittiert wird.

Aber lassen wir uns das einmal auf der Zunge zergehen: Ein Zettabyte steht für 10 hoch 21 (oder eine Sextillion) Bytes, was wiederum 1.000 Exabytes oder einer Milliarde Terabytes entspricht. Das sind in etwa so viele Informationen, wie es Sandkörner an allen Stränden der Welt zusammen gibt. Ab 1.000 Zettabytes reden wir übrigens von einem Yottabyte – und welche Maßeinheit danach kommt, weiß meines Wissens aktuell noch niemand.

Speicher wird ein knappes Gut

Interessant an der IDC-Prognose ist aber etwas anderes: So sollen nicht nur IoT- und Echtzeitdaten rasant anwachsen, sondern generell Daten, die von Unternehmen erzeugt und verwaltet werden. Während dieser Anteil 2015 noch bei gerade einmal 30 Prozent lag, erwarten die Experten für 2025 etwa 60 Prozent. Unternehmen werden es also 2025 mit etwa 105 Zettabytes zu tun haben, gegenüber 12 Zettabytes zehn Jahre zuvor.

Wenn es nicht noch einen unerwarteten Durchbruch bei neuer Speichertechnologie gibt, wird schon die Bereitstellung dieser Menge an Speicherkapazität ein Problem werden. So geht dieselbe IDC-Studie davon aus, dass weltweit von 2019 bis 2025 insgesamt etwa 21,9 Zettabytes ausgeliefert werden – bei einem Bedarf von 135 Zettabytes.

Wer jetzt denkt, dass die Chip-Hersteller vor diesem Hintergrund bereits ihre Fertigung erweitern, hat sich aber getäuscht: Nach einem Boom 2018 befindet sich der Markt für Flash-Speicher gerade aufgrund eines Überangebotes in einem Abschwung, und die Preise sind im ersten Quartal um rund 20 Prozent eingebrochen. Die drei großen Hersteller Intel, Micron und SK Hynix haben daher bereits angekündigt, die Produktion zurückzufahren, Samsung wird dasselbe tun. Es ist schwer vorstellbar, dass sie kurzfristig zurückrudern und Zettabytes an zusätzlicher Kapazität auf den Markt werfen.

Klassische Festplatten sind Auslaufmodelle und zudem teuer in Entwicklung und Herstellung. Kein Hersteller, der noch bei Trost ist, wird in zusätzliche Produktionsanlagen investieren.

Kristalle und DNA als Lösungsansatz

Geforscht wird an zahlreichen Fronten, wobei mit weiteren Durchbrüchen bei der Miniaturisierung von Chips nicht mehr unbedingt zu rechnen ist. Bei der neuen Prozessorgeneration von AMD werden bereits 7 Nanometer erreicht – spätestens auf der Ebene einzelner Atome ist nach derzeitigem Stand der Physik das Ende der Fahnenstange erreicht. 7 Nanometer entsprechen etwa 28 Atomen nebeneinander. Zum Vergleich: Ein Grippevirus ist etwa 100 Nanometer groß.

Interessant sind Forschungsansätze aus den Naturwissenschaften, etwa organische Kristalle oder DNA. Die Idee, unser Erbgut als Speicher zu nutzen, reicht zurück bis in die ’60er-Jahre. Erste Umsetzungen konnte 2007 die Universität von Arizona vorzeigen. Von Microsoft ist bekannt, dass intensiv in dem Bereich geforscht wird.

Von Cloud-Storage zu Subskriptionsmodellen

Storage-Trends 2020

Von Cloud-Storage zu Subskriptionsmodellen

16.12.19 - Cloud-Storage, „Datentemperaturen“, F2F2C, As-a-Service-Angebote, SCM und QLC NAND – der Storage-Markt bleibt auch 2020 in Bewegung. lesen

Zumindest in der Theorie ist das auch sehr viel versprechend: Wissenschaftler haben ausgerechnet, dass ein Zettabyte Daten in einem Gramm DNA gespeichert werden könnte; damit hätte der Datenbestand von 2025 in einer Kaffeetasse genug Platz. Aktuell würde es mit der besten verfügbaren Technologie aber mehrere Monate und Hunderttausende von Euro kosten, die Menge DNA einer einzigen Zelle eines Kolibakteriums synthetisch herzustellen. Das Bakterium selbst schafft das kostenlos und in etwa 20 Minuten. Bis zur Datensuppe ist es da ein weiter Weg.

Mittelfristiger Lösungsansatz: DataOps

Aktuell ist das Problem knapper Speicher noch nicht spürbar: Storage steht in Hülle und Fülle zur Verfügung, in der Cloud quasi unbegrenzt zu geringen Kosten. Aber auch die Cloud-Anbieter werden die Engpässe zu spüren bekommen und aller Voraussicht nach dann die Preisschraube anziehen. Wohl dem, der bis dahin nicht komplett und alternativlos mit seinen Daten in die Wolke umgezogen ist.

Der Lösungsansatz muss – zumindest mittelfristig – ein anderer sein: DataOps. Dabei handelt es sich um eine Methode zur Datenerhebung, -verwaltung und -pflege, die durch künstliche Intelligenz und Automatisierung dafür sorgt, dass Daten am richtigen Ort, zur richtigen Zeit und für die richtigen Personen zugänglich sind.

Unternehmen werden nicht umhinkommen, nach intelligenten Wegen zu suchen, um ihre Datenbestände zu reduzieren. Technologieansätze wie Deduplizierung oder Kompression sind dabei nur ein Tropfen auf den heißen Stein, verglichen mit der Zahl an Datenkopien einer einzelnen Quelle sowie den vielen irgendwo schlummernden oder herrenlosen Datenkopien, die in Unternehmen herumgeistern. Es gibt Schätzungen, denen zufolge etwa zwei Drittel der Kapazitäten externer Speichersysteme nicht von Primärdaten belegt sind, sondern von Snapshots, Klonen, Archiven oder Backup-Daten. Für Datensicherung und -wiederherstellung werden häufig 13 bis 20 Kopien aktiver Dateien angelegt.

Der Anteil von Kopien am gesamten Datenvolumen ist viel größer geworden, da Anwendungen und Daten enger zusammengewachsen sind und Datenkopien beispielsweise für die Verarbeitung über Computer-Cluster hinweg verteilt werden. Das führt aber auf der anderen Seite auch dazu, dass Löschanfragen, die etwa die DSGVO mit sich bringt, nur schwer zu vollziehen und zu dokumentieren sind. Das Datenmanagement wird immer wichtiger – und gleichzeitig angesichts schwindelerregender Datenmengen auch schwieriger.

Die Software macht den Unterschied

Der Ausweg aus dem Storage-Dilemma liegt in einem intelligenten Datenmanagement mit Hardware, welches in Verbindung für mehr Transparenz sorgt und die Notwendigkeit von Datenkopien verringert. Eine Schlüsselrolle in einem solchen Konzept kommt der Objektspeichertechnologie zu: An die Stelle hierarchischer Dateisysteme tritt eine Architektur, die Storage als Objekte verwaltet und dabei nicht nur sehr hoch skalierbar, sondern auch kostengünstig ist. Das ist heute nicht mehr exotisch; praktisch alle Cloud-Anbieter setzen auf diese Art der Speicherarchitektur.

Mit traditionellen Konzepten 2020 auf der sicheren Seite?

Hochverfügbarkeit und Backup

Mit traditionellen Konzepten 2020 auf der sicheren Seite?

11.12.19 - Auch 2019 machten wieder prominente Systemausfälle negative Schlagzeilen. Fürs kommende Jahr 2020 stellt sich nicht zuletzt deswegen die Frage, ob herkömmliche Backup- und Hochverfügbarkeitskonzepte noch zeitgemäß sind. lesen

Mit Hilfe von Metadaten können Versionen verwaltet, Daten für Compliance-Anforderungen gefiltert oder Snapshots angefertigt werden, die im Vergleich zu klassischen Backups deutlich weniger Platz benötigen und eine erheblich einfachere Wiederherstellung von Dateien ermöglichen. Snapshots können auch für Testumgebungen genutzt werden, in denen die eigentlichen Primärdaten nicht verändert werden, sondern lediglich die Metadaten.

Mit Objektspeicher können Unternehmen auch Anwendungen spezifischen Speicherklassen zuordnen, so dass eine produktive Datenbank schnelle NVMe-SSDs nutzen kann, während selten genutzte Archivdaten auch auf langsam drehenden Festplatten liegen können, die deutlich mehr Kapazität für den eingesetzten Euro bringen. Um alle Vorteile eines modernen Objektspeichers zu nutzen, muss aber vor allem die Software mitspielen.

Hitachi Vantara hat dazu mit SVOS RF (Storage Virtualization Operating System Resilient Flash) ein Betriebssystem entwickelt, das als Verwaltungsebene oberhalb der Storage-Hardware nicht nur eigene, sondern auch Fremdsysteme einbinden kann. Die enthaltene künstliche Intelligenz passt sich an veränderte Bedingungen an, um die Workload-Performance zu optimieren, Speicherkosten zu senken und Fehler vorherzusagen, die den Betrieb stören könnten.

Im Zusammenspiel mit dem Ops-Center des Anbieters können bis zu 70 Prozent der Aufgaben in Infrastrukturmanagement und Betrieb automatisiert ablaufen; zusätzlich erhalten Admins schnellere und genauere Einblicke, um den Systemzustand zu diagnostizieren und den Datenbetrieb im Topzustand zu halten. Für Unternehmen ist das die beste Art und Weise, ihre Datenbestände effizient zu managen – zumindest so lange, bis DNA-Speicher und andere Science-Fiction-Ansätze die Marktreife erlangt haben. Was allerdings noch eine Weile dauern wird.

Jürgen A. Krebs, Hitachi Vantara.
Jürgen A. Krebs, Hitachi Vantara. (Bild: (c) www.MarcFippel.de)

*Der Autor: Jürgen A. Krebs ist seit Juli 2004 bei Hitachi Vantara tätig und verantwortet seit 2016 das CTO Office für die Central Region. Mit Hilfe seiner umfangreichen Branchenerfahrung von mehr als 30 Jahren gestaltet er die strategische Ausrichtung von Hitachi Vantara mit Fokus auf die Kernkompetenzen des Unternehmens. Der begeisterte Techniker beschäftigt sich in seiner Freizeit leidenschaftlich mit jeglicher Art von Elektronik, Motorenbearbeitung und dem Motocross.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46284392 / Daten)