Grundlagen – technische Herausforderungen an Speichersysteme Letztlich dreht sich alles um die Daten

Autor / Redakteur: Rainer Graefen / Nico Litzel

Wer als IT-Leiter Probleme hat, der hat auch viele Speichersysteme. Eine sicher nicht ganz vollständige Sorgensammlung.

Datenspeicherung, das waren früher Festplatten in Servern. Heute ist mehr Systematik gefordert. Das heißt zum einen, der Unternehmens-Speicher muss dem Datenwachstum immer einen Schritt voraus sein. Zum anderen ist Intelligenz erforderlich, um Speicherkapazität und Zugriffsgeschwindigkeit optimal für Geschäftsprozesse bereit zu stellen.
Datenspeicherung, das waren früher Festplatten in Servern. Heute ist mehr Systematik gefordert. Das heißt zum einen, der Unternehmens-Speicher muss dem Datenwachstum immer einen Schritt voraus sein. Zum anderen ist Intelligenz erforderlich, um Speicherkapazität und Zugriffsgeschwindigkeit optimal für Geschäftsprozesse bereit zu stellen.
( Archiv: Vogel Business Media )

Informationstechnik ohne Speichersysteme? Unvorstellbar. Daten brauchen ihren festen Speicherplatz, spätestens dann, wenn sie alle Prozessschritte im Workflow durchlaufen haben. An Platz für Daten mangelt es nicht. Jedes Jahr werden hundertmillionenfach Festplatten produziert, die demnächst Datenmengen von einem Zettabyte aufnehmen werden. So beeindruckend das ist, mit dem Speichermedium fängt die Crux an. Daten sind – wie Gedanken – an funktionierende „Hardware“ gebunden. Die daraus resultierende Angst versucht man mit Kopien in den Griff zu bekommen.

Für IT-Administratoren ergeben sich aus diesem einfachen Sachverhalt zahlreiche technisch komplizierte Herausforderungen – moderner ausgedrückt „Pain Points“. Da ist

  • der Bedarf von Speicherplatz zu klären,
  • die Kosten der Datenhaltung,
  • die Zugriffszeiten von Programmen auf die Daten,
  • die technische Innovation im Auge zu behalten und nicht zuletzt
  • beständig die Verfügbarkeit der Daten sicherzustellen.

Die Produktwerbung hat damit keine großen Probleme. Da sind die „Systeme“ skalierbar in Sachen Kapazität und Leistung, alle Komponenten sind flexibel austauschbar und viele RAID- und Replikationsfunktionen integriert, die das System hochverfügbar bis ausfallsicher machen. Diese Aussagen werden für kleine NAS-Server mit drei bis zehn Festplatten genauso behauptet wie für Speicherschränke mit mehreren tausend Festplatten. Und die Werbung funktioniert. Wenn jedes Produkt fast alle Fähigkeiten besitzt und sich nur in der Speicherkapazität unterscheidet, dann bleibt zum guten Schluss der Preis pro Gigabyte das ausschlaggebende Kriterium. So bleibt jeder Anwender auf immer größeren Sorgen sitzen.

Bedarf von Speicherplatz

Der Bedarf an Speicherplatz wird in der Praxis gleich mit den Kosten der Datenhaltung in einen Topf geworfen. 50 Euro pro Terabyte Rohkapazität sind derzeit die Messlatte vieler Anwender. Die Elektronikketten sind nah. Dieser Preis lässt sich eigentlich nur noch mit Tape unterbieten. Während Enterprise-Anwender mit großen digitalen Archiven auf das stromsparende Speichermedium setzen, haftet dieser Technik bei fast allen anderen Benutzern der Ruf eines nicht mehr zeitgemäßen Dinosauriers an. Das Tape mit seinem sequentiellen Zugriff, so die gängige Meinung, muss langsam sein, während der wahlfreie Zugriff einfach schnell ist. Gültig ist diese Sichtweise jedoch nur für kleine Datenmengen.

Eine Bedarfsanalyse des Speicherplatzes sollte die Daten genauer unter die Lupe nehmen oder die klassische Faustregel 20 zu 80 anwenden. Danach sind auf jeder Speicherstufe nur 20 Prozent aktiv in Benutzung, die restlichen 80 Prozent gehörten, ginge es nach den Kosten, auf die nächste Speicherstufe. Einer Untersuchung von HP zufolge kostet jedes Terabyte auf dem Online-Speichersystem zwischen 3.000 und 8.000 Euro, auf dem Nearline-Speichersystem sinkt dieser Wert auf 800 bis 2.000 Euro. Und bei der Speicherung auf Tape sind es nur noch 100 bis 200 Euro pro Terabyte. Alle Daten über einen Kamm zu scheren, kann also teuer werden.

Weiter mit: Die Zugriffszeit

Die Zugriffszeit

Ein zweiter ständiger „Schmerzpunkt“ ist die Zugriffszeit. Auch hier findet beständig eine Vermischung mit anderen Punkten in der obigen Liste statt. Das liegt in der Natur der Sache, da zum Beispiel verschiedene Level der RAID-Technik gleichzeitig die Zugriffszeit und auch die Datenverfügbarkeit verbessern. Da die Zugriffszeit bei einer Festplatte von drei bis 15 Millisekunden und bei etwa zwei bis 20 Mikrosekunden bei einer Solid State Disk (SSD) festliegt, ist sie eigentlich unwichtig.

Wichtiger ist der Kehrwert: die Ein-/Ausgabeoperationen pro Sekunde (IO/s oder amerikanisch IOPS). Während die Zugriffszeit der Festplatte oder SSD gleich bleibt, lässt sich die Anzahl der IOPS durch das Zusammenschalten von z. B. Festplatten in die Höhe treiben. Hat eine SATA-Festplatte etwa 80 I/O pro Sekunde, dann haben 100 SATA-Festplatten 8.000 I/O pro Sekunde. Auch das hat allerdings seine Tücken. Das Speichersystem muss nämlich fähig sein, eine große Anzahl von Spindeln (Festplatten) zusammenzubinden und dann auch noch die Datenmengen hinter jedem I/O über die interne Verdrahtung des Speichersystems zum Netzwerkanschluss zu übertragen.

Mit der Speichervirtualisierung ergeben sich heute ganz neue Möglichkeiten, die bisher sehr starren Zuordnungen von Server und Speicherplatz aufzubrechen. Die Wartezeiten der Anwendung und die I/O-Raten lassen sich damit wesentlich flexibler aufeinander abstimmen.

Technische Innovation

Für jede Technik kommt einmal das Ende der Benutzbarkeit. Angesichts der steigenden Wartungskosten lohnt sich der Betrieb eines Speichersystems nach einer Standzeit von drei Jahren allerdings kaum mehr. Und auch die Innovationen anderer Hersteller lassen das manchmal erst vor kurzem gekaufte Speichersystem schon nach kurzer Betriebszeit alt aussehen.

Der Austausch von Altsystemen gegen technisch innovative Speichersysteme ist angesichts des immensen Datenwachstums grundsätzlich nicht zu verhindern, will man im Wettbewerb nicht zu weit zurückfallen. Jeder Technologiesprung bei Speichersystemen bringt höhere Speicherkapazität und größeren Datendurchsatz mit sich. Auch das Management vereinfacht sich ständig, sodass Unternehmen überhaupt erst mit einem aktuellen Speichersystem in die Lage versetzt werden, die steigenden Datenmengen mit gleichbleibendem IT-Personal zu bewältigen.

Dass die Systeme immer leistungsfähiger werden und sich, verglichen mit den Altsystemen, auch das Preis-Leistungs-Verhältnis bessert, ist sicherlich kein Pain Point. Der Pain Point liegt in der Integration in die gewachsenen Infrastrukturen. Wer hier aus Kostengründen heraus bei jedem Innovationszyklus den Hersteller wechselt, hat nicht nur jedes Mal die Migration des Datenbestandes zu gewährleisten, sondern sieht sich mit einem erhöhten Management-Aufwand konfrontiert, der Zeit und Geldmittel im Rechenzentrum bindet. Untersuchungen von Marktforschern zufolge müssen dann für Wartungsarbeiten 75 Prozent des IT-Budgets eingesetzt werden. Für außen stehende Beobachter ist klar, es wird zu wenig auf die Zukunftsfähigkeit der eigenen Systemlandschaft geschaut. Die Innovation verpufft zu einem großen Teil.

Verfügbarkeit von Daten

In der IT herrschte in den letzten Jahren großer Bedarf nach ausreichend billiger Rechenleistung. Das ist nun kein Problem mehr, führt aber zu einem weiteren Pain Point im Speicherland. Mit aktuell 64 Prozessorkernen in Standard-PC-Servern stellt sich die Frage, wie sich die Datenverfügbarkeit und der schnelle Zugriff von 100 und mehr virtuellen Maschinen pro Server sicherstellen lassen. Solche Konfigurationen werden auch, noch vor jedem Gedanken an die Hochverfügbarkeit des Rechenzentrums, Konzepte für Wartungsfenster benötigen. Während virtuelle Maschinen schon die Migration zwischen entfernten Standorten beherrschen, ist der transparente Failover von Daten noch nicht weit verbreitet.

Fazit

Eins ist bei dieser kleinen Sorgenliste klar absehbar, Unternehmen die sich keine Downtime im Rechenzentrum leisten können, werden in die Speichervirtualisierung investieren müssen.

(ID:2046023)