Suchen

Meinung – Speicherstrategien gibt es nicht von der Stange Wir haben unsere Daten zu lieb

Autor / Redakteur: Hans-Peter Kemptner / Nico Litzel

Ganz gleich, welches jährliche Datenwachstum prognostiziert wird, wir können nicht länger jeden einzelnen Datensatz so behandeln, als ob wir im nächsten Augenblick auf ihn zugreifen wollten.

Firmen zum Thema

Hans-Peter Kemptner, Senior IT Architect Technical Sales, IBM Systems and Technology Group, IMT Germany
Hans-Peter Kemptner, Senior IT Architect Technical Sales, IBM Systems and Technology Group, IMT Germany
( Archiv: Vogel Business Media )

Eine Speicherstrategie zu entwickeln, ist bedeutsamer denn je. Allein für Deutschland wird die Datenmenge im Jahr 2006 auf 10 Exabyte, also zehn Millionen Terabyte, geschätzt. Diese Entwicklung setzt sich fort.

Heute beschleunigen E-Mails und deren Anhänge in erster Linie das Datenwachstum. Noch in den Anfängen steckt allerdings die Verbreitung von Audio-, Bild- und Videodaten auf Speichersystemen, die die Wachstumsraten wesentlich erhöhen könnten.

Die negativen Effekte einer Datenlagerung auf Festplatten sind gemeinhin bekannt: Große Datenmengen bremsen die Performance, bringen die Administratoren an ihre Belastungsgrenzen und treiben die Kosten in die Höhe.

Die fünf Bereiche einer Speicherstrategie

Diese erste Diagnose bringt uns allerdings nicht weiter, wenn wir uns nicht genauer die fünf Bereiche betrachten, die den Produktivsystemen nachgelagert sind und eigentlich dafür sorgen sollen, dass alle Daten jederzeit verlustfrei verfügbar sind.

  • Datensicherung: Herkömmliche Sicherungsstrategien sind für das Handling großer Datenmengen nicht mehr ausreichend – Unterbrechungszeiten für Sicherungsdienste sind minimal bis gar nicht mehr vorhanden. Die althergebrachte Methode, Systeme herunterfahren, sichern und dann wieder hochfahren, lässt sich in großen Unternehmen schon lange nicht mehr praktizieren.
  • Infrastruktur: Bandbreite, Performance und Flexibilität aller Systeme müssen gesteigert werden. Grundlage sind die sich ändernden Geschäftsprozesse, mit denen Unternehmen auf sich wandelnde Marktbedingungen reagieren. Das bedeutet aber auch, dass mehr Speicherplatz kurzfristig und ohne Unterbrechung hinzugefügt werden muss oder bei Bedarf umzuwidmen ist.
  • Business Continuity und Desaster-Schutz: Infrastrukturkomponenten sollen möglichst ausfallsicher sein. Datenverlust ist auf jeden Fall eine Katastrophe. Zum einen sind Verfahren gefragt, die „minor Outages“, also kleinere Störfälle, wie den Ausfall einer Komponente im Speichersystem, möglichst unauffällig und automatisch in den Griff bekommen, sodass der Anwender im Idealfall nicht beeinträchtigt ist. „Major Outages“, größere Störfälle, wie zum Beispiel weiträumige Stromausfälle oder Hochwasser: In diesen Fällen kommt es meist zu längeren Unterbrechungen, die sicher und effizient zu bewältigen sind, damit der Schaden für das Unternehmen klein gehalten wird.
  • Archivierung: Unternehmensinterne und gesetzliche Vorschriften führen dazu, dass ein großer Teil der Daten über lange Zeiträume zu speichern ist. Das gelingt nur mit elektronischen Archiven, deren Aufgabe es ist, die Daten automatisch und über lange Zeit revisionssicher vorzuhalten.
  • Kosten: Hohe Servicequalität bei gleichbleibenden oder sinkenden Kosten – das ist eine weit verbreitete Zielvorstellung. Auf den ersten Blick klingt das zwar widersprüchlich, muss es aber nicht sein. Optimale Prozesse und standardisierte Verfahren können dazu beitragen, dass mit dem bestehenden Personal ein hohes Datenwachstum bewältigt werden kann.

Unternehmensspezifische Anforderungen

Die beschriebenen Herausforderungen sind wichtige Faktoren einer Speicherstrategie. Diese muss verständlicherweise auch die speziellen Anforderungen der Unternehmen in Form von Service-Levels berücksichtigen. Abgeleitet von der Unternehmensstrategie gibt es Service-Level-Anforderungen, die auf die Geschäftsprozesse abgestimmt sind.

Für die Unternehmensdaten muss man sich Fragen stellen wie diese: Auf welche Daten muss schnell zugegriffen werden können? Welche zeitliche Verfügbarkeit ist erforderlich? Wie lange darf es dauern, bis Daten wieder verfügbar sind, wenn es zu Ausfällen kommt? Diese Abwägung kann viel Geld sparen, wenn man nicht immer die technisch beste Lösung realisiern will, sondern eine, die gut genug ist.

Einen Einfluss auf den Service-Level für Daten haben auch gesetzliche Rahmenbedingungen, beispielsweise die Grundsätze zur Prüfbarkeit digitaler Unterlagen (GDPdU) oder Richtlinien zur revisionssicheren Langzeitarchivierung.

Eine Speicherstrategie kann nur dann entwickelt werden, wenn Anforderungen und Rahmenbedingungen verstanden sind. Dabei stehen die Daten im Kern der Betrachtung, nicht die Technik, mit der man sie speichert und verwaltet. Technik ist nur das Mittel zum Zweck. Daher führt es nicht zum Ziel, sich zuerst damit zu befassen, was es alles gibt, sondern damit, was man wirklich braucht.

Richtlinien, Standards, Schnittstellen

Eine wichtige Voraussetzung, bevor man ans Werk geht, ist die Definition von unternehmensspezifischen Richtlinien. Und zwar von organisatorischen und technischen Richtlinien. Welche Sicherheitsvorkehrungen und -richtlinien werden festgelegt? Welche Namenskonventionen werden festgelegt, um die Übersicht zu behalten und die Verwaltung zu vereinfachen? Welche Speichermanagement-Tools werden eingesetzt? Will man die Speichersysteme virtualisieren?

Bei der Auswahl der Infrastruktur sollte auf Standards Wert gelegt werden. Der SMI-S-Standard zur Verwaltung heterogener Systeme spielt bereits heute eine bedeutsame Rolle, viele Hersteller entwickeln ihre Lösungen SMI-S-konform. Aber auch auf Ebene der speichernahen Anwendungen wie der Archivierung entwickeln Hersteller mit XAM, iECM und JCR gemeinsame Schnittstellen.

Die ILM-Strategie

Ein allgemein bekannter strategischer Ansatz zur Datenbehandlung ist sehr hilfreich bei der Entwicklung einer Speicherstrategie: Information Lifecycle Management (ILM). Gerade wenn es um die Verarbeitung großer Datenmengen geht, ist ILM unverzichtbar. Allerdings muss man sich klarmachen, was ILM wirklich ist und was es nicht ist.

ILM ist kein einzelnes Produkt und keine einzelne Dienstleistung. ILM ist ein Konzept aus Prozessen und Techniken, mit dem Daten über den gesamten Lebenszyklus hinweg auf Grund einer zu definierenden Wertschätzung verwaltet werden – zu möglichst geringen Kosten. Die Wertschätzung der Daten lässt sich am besten am Umgang mit den Daten erkennen: Zugriffszeiten, Sicherungsmethoden wie Instant Copies, Spiegelung, Backup und Aufbewahrungsfristen.

ILM bezieht sich auf alles, was in einem „Datenleben“ passiert, unter anderem auf die Datensicherung, die hierarchische Speicherverwaltung (Hierarchical Storage Management – HSM) bis hin zur Datenarchivierung.

Klassifizieren scheidet die Daten

Die praktische Umsetzung einer ILM-Strategie beginnt mit der Analyse der Daten. Dieser Prozess ist zwar sehr aufwendig, aber zwingend notwendig. Wer keine Übersicht hat, was wo und warum gespeichert wird, kann den nächsten Schritt, die Klassifizierung der Daten, nicht gehen. Daher ist es unerlässlich, die Bestandsaufnahme so genau wie möglich durchzuführen und auch zukünftige Entwicklungen, soweit sie bekannt sind, einzubeziehen.

Der nächste Schritt ist die Klassifizierung der Daten. Nicht alles ist gleich wichtig und wertvoll, nicht alles muss ewig aufbewahrt werden. Das Datenmanagement wird durch die zugewiesene Speicherklasse bestimmt. Fehlt eine Klassifizierung, wird wahrscheinlich der (teuerste) Ansatz gewählt: Alles ist wichtig, alles wird gleichbehandelt. Bei den wachsenden Datenmengen bedeutet das auch lineare Kostensteigerung.

Die Anzahl der Speicherklassen sollte möglichst gering gehalten werden, in der Praxis haben sich drei bis fünf bewährt. Eine Speicherklasse beschreibt den Service-Level für die Daten, die dieser Klasse zugeordnet werden: Performance-Anforderungen, Aufbewahrungsfristen, Spiegelungsmethoden, Zeitbedarf für Veränderungen an der Infrastruktur usw.

Als Master-Certified-IT-Architekt berät Hans-Peter Kemptner beim Design und bei der Optimierung von IT-Infrastrukturen mit dem Schwerpunkt Business-Continuity-Lösungen und Storage-Architekturen. Er ist seit mehr als 30 Jahren in der IT tätig und war selbst bis 2001 IT-Leiter.

(ID:2007730)