„Das Storage-Umfeld bleibt spannend“ Der Storage-Trend 2020: Automatisierung

Autor / Redakteur: Jürgen Krebs* / Dr. Jürgen Ehneß

Kaum eine Branche lebt so sehr von Innovationen wie die IT. Auch im Bereich Storage wird praktisch jedes Jahr ein neuer Trend aus der Taufe gehoben und den Firmen als das neue „Must-have“ angepriesen. Viele dieser Trends verdampfen aber schneller als ein Tropfen auf der heißen Herdplatte, nur wenige setzen wirklich neue Maßstäbe.

Anbieter zum Thema

Notwendigkeit und Markttreiber: Die Automatisierung macht praktisch vor keiner Branche Halt.
Notwendigkeit und Markttreiber: Die Automatisierung macht praktisch vor keiner Branche Halt.
(Bild: © ipopba - stock.adobe.com)

Wer heute die Gelegenheit bekommt, mit IT-Verantwortlichen in Unternehmen zu reden, erhält meist klar umrissene Problem- und Aufgabenfelder. Im Fokus stehen vor allem vereinbarte Service-Level-Abkommen (SLA), bei der die IT vertraglich festgelegte Dienste erbringen muss. Gleichzeitig müssen aber die Kosten im Blick behalten werden, um die Wirtschaftlichkeit des Betriebs zu gewährleisten.

Mit Bezug auf Speicher lässt sich das Spannungsfeld leicht skizzieren: Aus Performance-Gründen könnte man einfach alle Systeme mit dem leistungsfähigsten verfügbaren Speicher ausrüsten. Aus Kostengründen wäre das aber etwa so sinnvoll, wie morgens mit einem 2,5 Tonnen schweren Fahrzeug mit 450 PS seinen Filius zur drei Kilometer entfernten Schule zu fahren. Aber das ist ein anderes Thema …

Kosten, Performance und Sicherheit im Fokus

2020 wird vor allem im Zeichen des Spannungsfeldes aus Kosten, Performance und Sicherheit stehen. Storage-Technologien wie NVMe (Non-Volatile Memory Express) oder Storage Class Memory (SCM) bieten heute bereits eine extreme Performance mit Zugriffszeiten im Bereich von unter 100 Mikrosekunden, die aber nicht alle Systeme, Netzwerkkomponenten und Anwendungen nutzen können – geschweige denn benötigen. Klassische Solid State Disks (SSD) haben zwar eine hohe Performance, dafür aber Nachteile bei der Wiederbeschreibbarkeit, vor allem bei langer und intensiver Nutzung im Enterprise-Umfeld. Problematisch ist etwa das Housekeeping bei um die 80 Prozent gefüllten RAID-Gruppen oder Erasure-Coding-Plattformen.

Einen guten Kompromiss bieten die Flash Memory Devices (FMD) von Hitachi. Sie liegen mit Zugriffszeiten von 101 bis 500 Mikrosekunden zwar oberhalb der Ultra-Highend-Liga aus NVMe und SCM, sind aber deutlich schneller als SSDs. Die Devices erledigen das komplette Housekeeping im Medienträger ohne Performance-Einbußen für das Speichersystem und bieten Enterprise-Performance in einem vernünftigen Kostenrahmen. FMDs kommen daher in den meisten von uns betreuten Finanz- und Banking-Umgebungen zum Einsatz.

Objektspeicher bringt die Cloud ins Haus

Generell empfiehlt sich die Einführung von Objektspeicherplattformen auf Basis des S3-Protokolls. Speziell bei großen Datenbeständen („Big Data“) weist Objektspeicher derzeit das beste Preis-Leistungs-Verhältnis auf und verdrängt aus dem Grund auch sukzessive den klassischen Netzwerkspeicher aus den Rechenzentren. Ein weiterer Vorteil: Klassische Backup-Lösungen und damit auch der Einsatz von Tape als Langzeitspeicher werden durch Snapshots obsolet. Ein Snapshot, bei dem „Objects“ mit Metadateninformationen verknüpft sind, verbraucht nicht nur deutlich weniger Platz als eine volle Datenkopie (im Schnitt etwa 5 bis 6 Prozent), auch die Wiederherstellung einzelner Dateien ist deutlich schneller und einfacher möglich. Gleichzeitig ist die Object-Technologie zukunftssicher und quasi unbegrenzt skalierbar.

Mit Lösungen wie der Hitachi Content Platform können Unternehmen die Vorteile der Public Cloud für sich nutzen, gleichzeitig aber Herr über die eigenen Daten bleiben und sich von der Preisgestaltung und Verfügbarkeit eines externen Anbieters unabhängig machen. Öffentliche Cloud-Anbieter lassen sich jederzeit beispielsweise für Testzwecke in die Infrastruktur integrieren und aufgrund der auf Metadaten basierenden Verwaltung auch problemlos von einem Anbieter zu einem anderen migrieren. Dabei kommt auch die mehrfach ausgezeichnete Technologie des Cloud-System-Integrators REAN zum Tragen, den Hitachi Vantara 2018 übernommen hat und unter dem neuen Namen „Hitachi Cloud Accelerator Platform“ vermarket.

Unternehmen könnten damit bestehende Anwendungen automatisiert bis zu 90 Prozent schneller als jeder andere Anbieter in die Cloud bringen und auch neue oder bestehende Cloud- Umgebungen schneller als bisher implementieren und produktiv nutzen oder unkompliziert und flexibel migrieren.

An Automatisierung führt kein Weg vorbei

In den vergangenen Jahren war das Thema SDS (Software-Defined Storage) ein Dauerbrenner. Das Prinzip dahinter: Storage-Software und -Hardware werden voneinander getrennt, dadurch lässt sich die Kapazität jederzeit anpassen und praktisch grenzenlos skalieren („Scale-Out“). Hitachi beobachtet die Entwicklung in diesem Bereich sorgfältig, aber unser derzeit verfolgter Ansatz weicht vom klassischen SDS ab. Das Hauptaugenmerk dieses Ansatzes liegt auf einheitlicher Bedienung aller Systeme über eine Oberfläche, das Storage Virtualization Operating System SVOS, und Automatisierung mit Unterstützung von KI und ML.

Mit der im Oktober 2019 vorgestellten Speicherplattform VSP 5500 wurde der „Automator“ in den Vordergrund gerückt. Der Kunde kann damit über von ihm definierte Prozess-Buttons – sogenannte Tiles – Abläufe hinterlegen und umgehend nutzen, was das Risiko einer Fehlbedienung nahezu gegen null tendieren lässt. Auf diese Weise lassen sich beispielsweise Fremdsysteme provisionieren, und selbst die Konfiguration des SAN (Storage Area Network) kann integriert werden. Seine ganze Stärke kann das auf künstlicher Intelligenz basierende Managementsystem im „K-Fall“, also dem Worst-Case-Szenario, ausspielen: Zuvor vom Kunden definierte Abläufe können angestoßen werden, anstatt erst mühsam Schritt für Schritt von Hand die Wiederherstellung eines Rechenzentrums zu starten.

Automatisierung geht einigen IT-Verantwortlichen aber nicht weit genug: Sie wollen zwar weiterhin die Kontrolle über ihre Daten im Haus behalten, scheuen aber die Komplexität des Storage-Themas. Ein auf „Consumption“ basierendes Mietmodell bietet einen Ausweg: Die Unternehmen skizzieren mit Hitachi als Partner die aktuellen und zukünftigen Speicheranforderungen und bekommen ein passendes System, das in ihrem Rechenzentrum aufgestellt und vom Anbieter administriert und bei Bedarf erweitert oder ausgetauscht wird. In die Berechnungsgrundlage fließen SLAs ebenso ein wie ein eventuell auftretender Mehr- oder Minderverbrauch. Wir konnten auch 2019 ein ungebremst starkes Interesse an unseren Consumption-Modellen beobachten und erwarten 2020 hier ein deutliches Wachstum.

Tape & klassische Festplatte: Quo vaditis?

Zum Schluss ein Blick auf die Klassiker. Klassische Festplatten (10k oder 7.200 U/min) liefern Zugriffszeiten von etwa 1 bis 4 Millisekunden in Speichersystemen und werden heute vor allem in Objektspeicherumgebungen eingesetzt, wo zum einen die Geschwindigkeit bei Dateizugriffen absolut ausreichend ist und zum anderen die Langlebigkeit der Medien eine wichtige Rolle spielt. Die schnell drehenden (15k-) Festplatten sind allerdings vor etwa fünf Jahren vom Markt verschwunden, weil die Preiserosion bei Flash-Speicher deutlich schneller voranschritt, als prognostiziert. Interessant ist das Medium vor allem, wenn Tape-Umgebungen abgelöst werden, weil in diesem Fall nach der Migration alle Daten des Unternehmens im direkten Zugriff sind und vollumfänglich genutzt werden können.

Mit Zugriffszeiten jenseits von 3 Millisekunden ist das klassische Tape immer noch die kostengünstigste Möglichkeit, Daten sicher langfristig zu speichern. Tendenziell ist das Medium aber relativ pflegeintensiv (Wechsel der Bänder, Lagerung et cetera), und es fehlt die Möglichkeit, Daten „mal eben“ nachzuschlagen. Genauso ist es technisch nicht möglich, einzelne Datensätze zu löschen, weshalb das Damokles-Schwert eines Verbotes seitens des Gesetzgebers im Raum steht, weil das Recht auf Löschen gemäß DSGVO technisch nicht realisierbar ist. Der Rückversicherer SwissRe hat sich nicht nur aus den genannten Gründen im vergangenen Jahr vom Tape verabschiedet und spart dadurch nicht zuletzt eine Menge Geld.

Es bleibt die kommenden Jahre damit weiterhin sehr spannend im Storage-Umfeld.

Jürgen A. Krebs verantwortet seit 2016 das CTO Office für die Central Region bei Hitachi Vantara.
Jürgen A. Krebs verantwortet seit 2016 das CTO Office für die Central Region bei Hitachi Vantara.
(Bild: Hitachi Vantara)

*Der Autor: Jürgen A. Krebs ist seit Juli 2004 bei Hitachi Vantara tätig und verantwortet seit 2016 das CTO Office für die Central Region. Mit Hilfe seiner umfangreichen Branchenerfahrung von mehr als 30 Jahren gestaltet er die strategische Ausrichtung von Hitachi Vantara mit Fokus auf die Kernkompetenzen des Unternehmens. Der begeisterte Techniker beschäftigt sich in seiner Freizeit leidenschaftlich mit jeglicher Art von Elektronik, Motorenbearbeitung und dem Motocross.

(ID:46322416)