Das Datenwachstum "sprengt" die Rechenzentrumsmauern

Warum wir keine Storage-Strategie brauchen

| Redakteur: Rainer Graefen

Also können auch Anwender in dieser komplexen Umgebung kaum die richtige Entscheidung treffen. Nur wenige Anwender designen ihre Umgebung, die meisten wollen das Datenwachstum mit Hardware erschlagen. Meist verdeckt die Vergrößerung der Bandbreite auf dem Netzwerk-Layer, dass hier falsche Entscheidungen getroffen wurden und dass damit ein unausgegorenes Tiering-Konzept funktionsfähig gehalten wird. Die nächste Generation von parallelen Netzwerkprotokollen, könnte jedoch offenlegen, dass zu viel Geld in den Netzwerkausbau geflossen ist.

Datenbestand mit Migrationshintergrund

Den Schuh mit falschen Investitionen muss sich allerdings auch die Speicherindustrie anziehen, der das Datenwachstum schon seit Jahrzehnten zu immensen Umsätzen verhilft, und die darauf aufbauend den Unternehmen immer wieder Angebote gemacht hat wie eine geordnete Migration von Daten funktionieren könnte:

Aus der Mainframe-Welt wurde das hierarchische Storage-Management (HSM) übernommen. Diese Idee poppt immer wieder mal hoch, weil Metadaten einer Datei wie Größe, Alter und Füllstand des System schon immer vorhanden sind und sich leicht handhaben lassen.

Etwas mehr sophisticasted war die Idee des Information Lifecycle Management (ILM). Ein Dokument sollte nach seinem abnehmenden Gebrauchswert auf immer preiswertere Speicherplattformen verschoben werden. Die HSM-Metadaten wollte man um indizierte Inhalte erweitern. Hier hätten mit einem Zeitstempel versehene Dokument sogar in einen Löschprozess überführt werden können.

Die meisten Anwender haben das Angebot, in aufwändigen Projekten ihre Daten zu sortieren und ihre Primärsysteme zu entlasten, dankend abgelehnt. Zusätzlicher Festplattenspeicher war einfach billiger.

Mit automatisierter Block-Migration zum abgespeckten Information Lifecycle

Geblieben ist aber immer das Konzept von Speicherstufen, moderner gesagt: das Storage Tiering. Aktive Daten kommen dabei auf schnell drehende SCSI-Disks, weitgehend inaktive Daten auf SAS-Festplatten und das Archiv bildete das vielumstrittene Tape. Die Grundidee hat sich durchgesetzt und ist nun in fast jedem modernen Speichersystem als Automatismus umgesetzt.

Automated Storage Tiering findet den Anklang, den es verdient. Und in Kombination mit einem Tier mit Solid State Disks ergeben sich auch noch weitere Vorteile, die die Speicherkosten (bezogen auf die I/O-Rate) halbieren können, bei gleichzeitiger Steigerung der Zugriffsgeschwindigkeit.

Dass die SSD, sofern angewandt, noch einen hohen Anteil an den Speicherkosten hat, ändert sich durch ein neues Interface. Das Non Volatile Memory Host Controller Interface (NVMHCI) ist jedoch nur eine Variante die hohe I/O-Leistung von (Enterprise) SSDs für mehrere Clusterknoten zur Verfügung zu stellen. Auch diese Technik wird unabhängig von der Entwicklung von SSDs Bestand haben. (Das Enterprise steht in Klammern, da es viele Anstrengungen gibt die Lebensdauer von Multi- und Triple Level Cell SSD zu erhöhen.)

Ersetzt die Langzeitspeicherung das Archiv?

Ungewiss bleibt bis auf weiteres wie die Migrationsstufe „Archiv“ in das Gesamtkonzept passt. Schon am Zeithorizont scheiden sich die Geister. Geschäftliche Belange von beispielsweise Versicherungen benötigen die zeitliche Aufbewahrung von Dokumenten, die sich im maximalen Alter eines Menschen von 120 Jahren plus x bewegen. Die Langzeitarchivierung über tausende Jahre, wie sie Historiker gerne hätten, bleibt der ungeklärte Sonderfall.

Für die Migrationsstufe Archiv zeichnen sich nach dem aktuellen Stand vier herstellerspezifische Lösungen ab:

  • Die erste teilt das Archiv in eine Online-Lagerung auf Tape-Robotern und die Offline-Lagerung des Tapes nach einer längeren Lagerzeit auf.
  • Die zweite Idee ist, das Archiv um eine Langzeitspeicherung von zehn bis zwanzig Jahren zu ergänzen. Dabei hilft die Partitionierfähigkeit des Industriestandards LTO. Die auf die Index-Partition ausgelagerten File-Index lässt sich damit als LTFS-Filesystem in ein Globales Filesystem integrieren. Alternativ kann das Long Term File Systems auf einer NAS-Appliance liegen und ist dann per NFS oder CIFS erreichbar.
  • Der dritte Ansatz favorisiert Backup und Archiv mittels Deduplizierung und Disk zu bewältigen. Eine Besonderheit beim Deduplizierungs-Ansatz ist, dass diese Daten auf unterschiedliche Speicherplattformen dehydriert, also zurück gewonnen, werden können.
  • Und der vierte Ansatz wird die Objektspeicherung sein, die sich anscheinend mit ihrer inhaltsadressierten Speicherung auch für die weltweite Lagerung, einfache Migration und den weltweiten Zugriff ohne genaue Kenntnis des Lagerortes eignet.
  • Allen Ansätzen gemein ist, dass die Hersteller das „Archiv“ nicht länger als abgeschobene Daten betrachten wollen, sondern dass ein halbwegs flotter Zugriff auch auf ältere Datenbestände möglich sein soll. Die Big-Data-Fraktion wird das sicherlich freuen.

    Vorläufiges Fazit

    Ob man nach diesem hier gezeichneten Bild immer noch eine Storage-Strategie verfertigen sollte? Besser nicht. Die Industrie bietet jetzt schon Midrange-Speichersysteme an, die in der Lage sind 64 Petabyte an Daten in einer heterogenen und damit gestuften Umgebung zu verwalten. Das Datenlagerungsproblem wäre damit schon erschlagen. Was könnte eine Strategie besser machen.

    Die große Konstante im obigen Bild ist der Wunsch nach sofortiger Verfügbarkeit der Daten. Das aktuell praktizierte technisch inspirierte „Tiering“ in seinen diversen Spielarten stellt insofern nur einen Kompromiss dar, um die Lagerkosten zu optimieren.

    Sobald, und das könnte schon in fünf bis zehn Jahren der Fall sein, eine preiswerte Langzeitspeicherung mit hohen Zugriffsgeschwindigkeiten auf den Markt kommt, dann ist das oben gezeichnete Bild nur noch Makulatur.

  • Inhalt des Artikels:

    Kommentare werden geladen....

    Was meinen Sie zu diesem Thema?

    Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

    Anonym mitdiskutieren oder einloggen Anmelden

    Avatar
    Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am
      1. Avatar
        Avatar
        Bearbeitet von am
        Bearbeitet von am

    Kommentare werden geladen....

    Kommentar melden

    Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

    Kommentar Freigeben

    Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

    Freigabe entfernen

    Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

    copyright

    Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 37381010 / Prozesse)