Suchen

Grundlagen – technische Herausforderungen an Speichersysteme Letztlich dreht sich alles um die Daten

Autor / Redakteur: Rainer Graefen / Nico Litzel

Wer als IT-Leiter Probleme hat, der hat auch viele Speichersysteme. Eine sicher nicht ganz vollständige Sorgensammlung.

Datenspeicherung, das waren früher Festplatten in Servern. Heute ist mehr Systematik gefordert. Das heißt zum einen, der Unternehmens-Speicher muss dem Datenwachstum immer einen Schritt voraus sein. Zum anderen ist Intelligenz erforderlich, um Speicherkapazität und Zugriffsgeschwindigkeit optimal für Geschäftsprozesse bereit zu stellen.
Datenspeicherung, das waren früher Festplatten in Servern. Heute ist mehr Systematik gefordert. Das heißt zum einen, der Unternehmens-Speicher muss dem Datenwachstum immer einen Schritt voraus sein. Zum anderen ist Intelligenz erforderlich, um Speicherkapazität und Zugriffsgeschwindigkeit optimal für Geschäftsprozesse bereit zu stellen.
( Archiv: Vogel Business Media )

Informationstechnik ohne Speichersysteme? Unvorstellbar. Daten brauchen ihren festen Speicherplatz, spätestens dann, wenn sie alle Prozessschritte im Workflow durchlaufen haben. An Platz für Daten mangelt es nicht. Jedes Jahr werden hundertmillionenfach Festplatten produziert, die demnächst Datenmengen von einem Zettabyte aufnehmen werden. So beeindruckend das ist, mit dem Speichermedium fängt die Crux an. Daten sind – wie Gedanken – an funktionierende „Hardware“ gebunden. Die daraus resultierende Angst versucht man mit Kopien in den Griff zu bekommen.

Für IT-Administratoren ergeben sich aus diesem einfachen Sachverhalt zahlreiche technisch komplizierte Herausforderungen – moderner ausgedrückt „Pain Points“. Da ist

  • der Bedarf von Speicherplatz zu klären,
  • die Kosten der Datenhaltung,
  • die Zugriffszeiten von Programmen auf die Daten,
  • die technische Innovation im Auge zu behalten und nicht zuletzt
  • beständig die Verfügbarkeit der Daten sicherzustellen.

Die Produktwerbung hat damit keine großen Probleme. Da sind die „Systeme“ skalierbar in Sachen Kapazität und Leistung, alle Komponenten sind flexibel austauschbar und viele RAID- und Replikationsfunktionen integriert, die das System hochverfügbar bis ausfallsicher machen. Diese Aussagen werden für kleine NAS-Server mit drei bis zehn Festplatten genauso behauptet wie für Speicherschränke mit mehreren tausend Festplatten. Und die Werbung funktioniert. Wenn jedes Produkt fast alle Fähigkeiten besitzt und sich nur in der Speicherkapazität unterscheidet, dann bleibt zum guten Schluss der Preis pro Gigabyte das ausschlaggebende Kriterium. So bleibt jeder Anwender auf immer größeren Sorgen sitzen.

Bedarf von Speicherplatz

Der Bedarf an Speicherplatz wird in der Praxis gleich mit den Kosten der Datenhaltung in einen Topf geworfen. 50 Euro pro Terabyte Rohkapazität sind derzeit die Messlatte vieler Anwender. Die Elektronikketten sind nah. Dieser Preis lässt sich eigentlich nur noch mit Tape unterbieten. Während Enterprise-Anwender mit großen digitalen Archiven auf das stromsparende Speichermedium setzen, haftet dieser Technik bei fast allen anderen Benutzern der Ruf eines nicht mehr zeitgemäßen Dinosauriers an. Das Tape mit seinem sequentiellen Zugriff, so die gängige Meinung, muss langsam sein, während der wahlfreie Zugriff einfach schnell ist. Gültig ist diese Sichtweise jedoch nur für kleine Datenmengen.

Eine Bedarfsanalyse des Speicherplatzes sollte die Daten genauer unter die Lupe nehmen oder die klassische Faustregel 20 zu 80 anwenden. Danach sind auf jeder Speicherstufe nur 20 Prozent aktiv in Benutzung, die restlichen 80 Prozent gehörten, ginge es nach den Kosten, auf die nächste Speicherstufe. Einer Untersuchung von HP zufolge kostet jedes Terabyte auf dem Online-Speichersystem zwischen 3.000 und 8.000 Euro, auf dem Nearline-Speichersystem sinkt dieser Wert auf 800 bis 2.000 Euro. Und bei der Speicherung auf Tape sind es nur noch 100 bis 200 Euro pro Terabyte. Alle Daten über einen Kamm zu scheren, kann also teuer werden.

Weiter mit: Die Zugriffszeit

(ID:2046023)