Suchen

Enterprise-Storage Skalierbar ohne Migration

| Autor / Redakteur: Jürgen A. Krebs* / Dr. Jürgen Ehneß

„Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen“, soll der US-amerikanische Schriftsteller Mark Twain (1835 – 1910) schon vor mehr als 100 Jahren gespottet haben. Sicherlich hatte er dabei nicht an den Speicherbedarf von Unternehmen gedacht, nichtsdestotrotz trifft das Bonmot auch hier zu. Neben dem allgemeinen Datenwachstum im Wirtschaftsverkehr haben Faktoren wie mobile Dienste, soziale Netze oder auch das Internet der Dinge mit seinen unzähligen Sensoren für ein Datenwachstum gesorgt, das noch vor einem Jahrzehnt praktisch unvorstellbar war.

Firmen zum Thema

Immer mehr digitale Daten entstehen an der Edge – wo auch zunehmend entschieden wird, ob sie zentral gespeichert oder dort verarbeitet werden.
Immer mehr digitale Daten entstehen an der Edge – wo auch zunehmend entschieden wird, ob sie zentral gespeichert oder dort verarbeitet werden.
(Bild: ©naypong - stock.adobe.com)

Wieso das ungebremste Datenwachstum bis 2025 sogar für einen Engpass bei den verfügbaren Speichermedien führen wird, habe ich in einem anderen Beitrag auf Storage-Insider („Die Zettabyte-Welt schlittert in eine Storage-Krise“) ausführlich dargestellt.

IT-Verantwortliche in Unternehmen müssen vor diesem Hintergrund ihre Investitionen in Storage-Infrastruktur so planen, dass die angeschafften Systeme zukunftssicher – sprich vorwärtskompatibel – sind. Dabei müssen sie verschiedene Speicherklassen für unterschiedliche Anwendungszwecke abdecken, und diese müssen hoch skalierbar sein, um auch bei unerwartetem Wachstum nicht an ihre Grenzen zu stoßen. Und natürlich dürfen die Kosten nicht aus den Augen verloren werden, denn die Zeiten, in denen Admins immer die „schärfste Kiste“ in ihrem Rechenzentrum haben wollten, sind vorbei.

Neue Datenstruktur und immer mehr Edge

Wenn es um die Vorhersagbarkeit von Performance, Bandbreite und Speichervolumen geht, sind strukturierte Daten aus klassischen Datenbankumgebungen immer noch der beste Indikator. Während sich an der Aufteilung von strukturierten und unstrukturierten Daten auf den ersten Blick nur wenig verändert hat, offenbart sich auf den zweiten Blick eine spannende – und für den Storage-Einsatz relevante – Veränderung: Die Datenpakete werden immer kleiner. Die Ursache dafür sind immer mehr Sensoren und Geräte im Internet der Dinge (IoT), die immer kleinere Datenpakete und vor allem neue Datentypen in großer Vielfalt hervorbringen.

Um Speicherplatz und Bandbreite zu sparen, werden Data-Processing und „Entscheidungen“ immer mehr in die „Edge“ verlagert, also dorthin, wo die Daten entstehen. Alle logischen Entscheidungen, die eine sofortige Handlung erfordern, beispielsweise die Notbremsung eines Zuges, werden möglichst nah an das Geschehen gerückt. Ins Zentrum werden nach Entscheidung der Edge-Systeme nur noch die Daten transferiert, bei denen eine langfristige Aufbewahrung Sinn ergibt.

Die Edge-Technologie erlaubt ganz neue Geschäftsmodelle und kann die bisher umgesetzten Ansätze der Industrie 4.0 erheblich erweitern. Chancen bieten sich auch Firmen, die ursprünglich nicht aus dem Industriesektor kommen und dadurch neue Wege bei der Kundenbindung und -neugewinnung gehen können. Ein Kfz-Versicherer kann beispielsweise seinen Kunden ein Telemetriesystem zur Verfügung stellen und aufgrund der Fahrdaten bessere Konditionen anbieten oder den Fahrer schneller in eine günstigere Schadenfreiheitsklasse einstufen.

Skalieren oder fünf auf einen Streich

So spannend die beschriebenen Anwendungsszenarien auch sein mögen, aus technischer Sicht wird die Mehrheit der Daten immer auf einem zentralen oder dezentralen Speichersystem abgelegt. Im Storage-Enterprise-Bereich lassen sich nach aktuellem Stand grob etwa fünf Performance-Level unterscheiden. Das Kriterium sind hierbei die Zugriffszeiten, und natürlich gilt auch hier: je besser, desto teurer:

  • 1. Ultra-High-End: NVMe (Non-Volatile Memory Express) oder SCM (Storage Class Memory) liegen im Bereich von 1 bis 100 Mikrosekunden.
  • 2. High-End: Im Bereich zwischen 101 und 500 Mikrosekunden liegen etwa die FMD (Flash Memory Devices) von Hitachi.
  • 3. High Performance: Solid State Disks (SSD) mit 501 Mikro- bis 3 Millisekunden.
  • 4. Standard: Klassische Festplatten (10K oder 7.200 U/min) liegen bei etwa 1 bis 4 Millisekunden.
  • 5. Langzeit: Klassisches Tape mit Zugriffszeiten jenseits von 3 Millisekunden.

Während es sich aus Kostensicht empfiehlt, möglichst alle Medien strikt nach Anwendungszweck einzusetzen, erhöht dies aber gleichzeitig den Managementaufwand. Ideal wären Speichermedien/-systeme, die mehrere oder gar alle Ansätze unterstützen. Hitachi hat als Antwort auf diese Herausforderung die VSP 5000 Plattform entwickelt, die maximale Flexibilität bei der Erweiterbarkeit mit aktuellen und zukünftigen Medien mit einer Performance und Bandbreite kombiniert, die den Anforderungen der kommenden Jahre standhält. Nur in diesem System können klassische Festplatten, SSDs, FMDs, NVMe- und (bei Verfügbarkeit) SCM-Geräte kombiniert eingesetzt und über ein dynamisches Tiering vollautomatisch den jeweiligen Speicherklassen zugeordnet werden, bis zu einer Gesamtkapazität von 69 Petabytes pro System – das sollte auch in datenintensiven Branchen eine ganze Zeit ausreichen. Basis für alle Erweiterungen ist das Storage-Betriebssystem SVOS-RF (Storage Virtualization Operating System Resilient Flash), das quer durch die Produktpalette alle Hitachi-Speichersysteme antreibt und auch zukünftig antreiben wird.

Der Blick auf die Kosten: Kauf vs. Consumption

In der Gesamtbetrachtung ist es heute schwerer denn je für einen CIO oder Rechenzentrumsverantwortlichen, langfristige Entscheidungen hinsichtlich der Technologie im Speicherumfeld zu treffen. Eine Alternative zum Kauf bietet ein verbrauchsorientiertes Mietmodell. Beim Mieten von Systemen liegt Leasing immer noch weit vorn. Hierbei werden unter dem Strich die Kosten über die Laufzeit verteilt und, mit einem Aufschlag versehen, als Leasingrate über die Laufzeit veranschlagt. Das Modell berücksichtigt aber andere Aspekte nicht, wie etwa einen Mehr- oder Minderverbrauch gegenüber der ursprünglichen Planung oder den Preisverfall der eingesetzten Medien. Wir haben daher ein Modell entwickelt, bei dem der kalkulierte Verbrauch („Consumption“) über die Laufzeit von meist fünf Jahren sowie die Servicelevel-Abkommen (SLAs) des Kunden als Basis für die Berechnung herangezogen werden. Zusätzlich fließt außerdem die erwartete Preisentwicklung bei den Speichermedien mit ein.

Der Kunde erhält damit eine wesentlich bessere und fairere Preisbasis als bei klassischem Leasing und hat aufgrund der enthaltenen Varianten auch Kalkulationssicherheit bei einem eventuellen Mehr- oder Minderverbrauch inklusive der zu erwartenden Servicegebühren, auf Wunsch auch über die Laufzeit hinaus. Die so „erworbene“ Umgebung wird im Rechenzentrum des Kunden installiert und – wenn gewünscht – ständig auf die neueste Plattform aktualisiert. Damit kann die IT-Abteilung ganz elegant das Problem der Skalierbarkeit von Storage-Systemen delegieren. Mission accomplished.

Jürgen A. Krebs, Hitachi Vantara.
Jürgen A. Krebs, Hitachi Vantara.
(Bild: (c) www.MarcFippel.de)

*Der Autor: Jürgen A. Krebs ist seit Juli 2004 bei Hitachi Vantara tätig und verantwortet seit 2016 das CTO Office für die Central Region. Mit Hilfe seiner umfangreichen Branchenerfahrung von mehr als 30 Jahren gestaltet er die strategische Ausrichtung von Hitachi Vantara mit Fokus auf die Kernkompetenzen des Unternehmens. Der begeisterte Techniker beschäftigt sich in seiner Freizeit leidenschaftlich mit jeglicher Art von Elektronik, Motorenbearbeitung und dem Motocross.

(ID:46405936)