Die Auswirkungen des exponentiellen Datenwachstums Das sind die Storage-Trends für 2020
Das Thema Speicher und die notwendigen Veränderungen werden viele Unternehmen auch im kommenden Jahr beschäftigen. Ob es dabei um das Verschmelzen lokaler und Cloud-basierter Storage-Umgebungen, leistungsfähigere Backup-Systeme oder den bevorstehenden HPC-Trend im Mittelstand geht – das und mehr wird im Bereich Storage zu beobachten sein. Und auch im NVMe-Umfeld wird es Neues geben …
Anbieter zum Thema

Daten stellen für immer mehr Unternehmen eine wertvolle Ressource dar. Wenn man in diesem Kontext berücksichtigt, dass Daten exponentiell weiterwachsen werden, stellt sich schnell die Frage, wie es mit der Datenspeicherung weitergeht. Denn wo heute immer noch große Datenbanken dominieren, werden morgen Sensor-, Video- und andere Datentypen massiv zunehmen. Dass diese rasante Entwicklung enorme Auswirkungen auf den Storage-Markt im Allgemeinen und auf Unternehmen im Speziellen haben wird, darauf haben sich IT-Entscheider und -Verantwortliche gleichermaßen einzustellen.
Storage-Verwaltung geschieht auf Basis einheitlicher Dashboards
Wichtige Aspekte sind hierbei eine leistungsfähige Hardware und die einheitliche Verwaltung der Daten. Denn die zunehmende Datenflut kann mit herkömmlichen Tools und Werkzeugen nicht mehr gesteuert und verwaltet werden. So kommt es immer mehr auf die Frage an, wie sich diese vielen Daten sinnvoll verwerten und verwenden lassen. Daraus ergibt sich eine zentrale Aufgabe im Administrieren der vorhandenen Storage-Systeme unter einer möglichst homogenen Managementoberfläche.
Tiering-Mechanismen für lokale und Cloud-basierte Speicherumgebungen
Davon lässt sich ein weiterer Trend ableiten, der sich mit den notwendigen Hybrid-Storage-Plattformen beschäftigt. Im Vordergrund stehen bei vielen Unternehmen der Wunsch oder die Notwendigkeit, lokale Storage-Ressourcen in Kombination mit Cloud-Plattformen zu nutzen. Denn immer dort, wo ein schneller Zugriff auf große Datenmengen erforderlich ist, kommt man um die lokale Bereitstellung von SAN- oder anderen Storage-Systemen nach wie vor nicht herum. Gleichzeitig ist auch das Speichern von nicht so häufig genutzten Daten zu Backup- und Archivierungszwecken wichtig, die aus Latenz-und Kostengründen durchaus in einem Cloud-Speicher liegen können.
An dieser Stelle kommen spezielle Tiering-Mechanismen zum Einsatz, die automatisch darüber entscheiden, ob Daten auf dem schnellen lokalen Speicher oder auf dem langsameren Cloud-Speicher abgelegt werden. Hierfür stehen spezielle Software-Lösungen bereit, die dieses Tiering von Haus unterstützen, und das über lokale und Cloud-Grenzen hinweg.
Lokale Rechenzentren für eine schnellere Anbindung an Infrastrukturen
Allerdings erkennen immer mehr Cloud-Anbieter die Notwendigkeit einer möglichst schnellen Cloud-Anbindung an die Infrastruktur von Unternehmen. Daher entstehen Schritt für Schritt neue Rechenzentren von Microsoft, Amazon und Co., die näher an die Standorte der Anwender rücken. Damit lassen sich in vielen Fällen Restriktionen wie eine schnelle Anbindung an den Cloud-Server eliminieren oder zumindest aufweichen.
Dies gilt auch für kleinere Cloud-Anbieter wie A1 Digital, die sich deutlich dezentraler und regionaler aufstellen als die großen Cloud Service Provider. Hierfür ist eine gute Anbindung an das Internet vonnöten, was sich im Zweifelsfall mithilfe eigener, kleiner Rechenzentren realisieren lässt. Hierfür stehen diverse Mietmodelle zur Verfügung. Diese stellen dann einen guten Kompromiss in Sachen Kosten und Leistungsfähigkeit dar.
Backup-und-Recovery-Lösungen müssen zu den Anforderungen passen
Was sich aufgrund der stetig zunehmenden Datenmengen ebenfalls verändern wird, ist das Thema Backup und Recovery. Denn es ergibt sich ein wesentlicher Unterschied beim Wiederherstellen von verloren gegangenen Daten, wenn sich diese nicht im Giga- oder Terabyte-Bereich, sondern in Petabyte-Dimensionen bewegen. Das trifft auf Archivierungsdaten gleichermaßen zu, wenngleich diese naturgemäß weniger zeitkritisch als beim Wiederherstellen sind. Hier spielen andere Kriterien wie das intelligente Indizieren und das Speichern von (Meta-)Daten eine Rolle. Gerade unstrukturierte Daten wie Videos sollen sich in einzelnen Fällen möglichst schnell wiederfinden lassen.
Künstliche Intelligenz erfordert schnelle Storage-Systeme
Ein weiterer Trend mit Einflussnahme auf die erforderlichen Storage-Lösungen ist das Thema Künstliche Intelligenz. Denn auch dort kommen große Datenmengen ins Spiel, gerade während der Phase des Machine/Deep Learning, in denen die vorhandenen Daten auf bestimmte Merkmale untersucht und das KI-System entsprechend „geschult“ wird. Denn immer dort, wo GPU-basierte Rechensysteme zum Einsatz kommen, spielt der schnelle Austausch zwischen den KI-Daten und der zugrunde liegenden Speichereinheit eine maßgebliche Rolle. Auch hier gilt: Auf die richtige Mixtur aus lokalen und Cloud-basierten Speichersystemen kommt es an.
:quality(80)/images.vogel.de/vogelonline/bdb/1651600/1651621/original.jpg)
Datenmanagement
Welche Trends werden 2020 den Datenmanagementmarkt prägen?
High-Performance-Computing kommt im Mittelstand an
Ein weiterer Trend für das nächste Jahr ist im Bereich High-Performance-Computing zu beobachten. Denn wo heute noch vor allem in Unis und Landesrechenzentren Hochleistungscomputer stehen, wird selbst der Mittelstand an den passenden HPC-Rechnerumgebungen nicht mehr herumkommen. Auch das hat mit den riesigen Datenmengen zu tun, die selbst mittelständische Unternehmen mittlerweile sammeln. Denn diese Daten sollen in geeignetere Weise ausgewertet und den jeweiligen Anwendungen zur Verfügung gestellt werden. Und so ist der Weg immer dort, wo rechen- und speicherintensive Simulationsanwendungen zum Einsatz kommen, zur eigenen HPC-Umgebung nicht mehr weit. Das können zum Beispiel große Ingenieurbüros mit hochkomplexen Berechnungen sein, die lokale und hochperformante Recheneinheiten für das Berechnen und Visualisieren von 3D-Objekten brauchen.
Und sonst? Objektspeicher und Storage-Class-Memory weiter auf dem Vormarsch
Darüber hinaus werden weitere Storage-Themen im nächsten Jahr (und darüber hinaus) auf Unternehmen zukommen. Hierzu zählen Objektspeicher zu verbesserten Indizierung und Metadatenvergabe sowie Storage-Class-Memory für schnellere und latenzfreiere Speicherzugriffe mithilfe von intelligenteren Tiering-Mechanismen. Daneben wird sich die Flash-Technik in Form von SSD-Komponenten weiter durchsetzen und gleichzeitig die klassische Festplatte im Unternehmensumfeld ablösen. Und für mehr Performance wird sich das NVMe-Protokoll in größerem Maßstab durchsetzen.
Lenovo treibt gemeinsam mit Excelero das Thema NVMe weiter voran
So integriert Lenovo bereits heute das NVMe-Protokoll in seine Flash-basierten Storage-Lösungen. Dazu gehören Lenovo ThinkSystem SR630 mit Intel-Xeon-Prozessor und ThinkSystem SR635 und SR655, in denen der AMD-Prozessor EPYC 7002 steckt. In beide Rechnersysteme können NVMe-taugliche SSD-Komponenten integriert werden. Für performante Leistungsdaten kooperiert Lenovo mit der Firma Excelero. Dieses Unternehmen hat eine Software namens NVMesh entwickelt, die eine verteilte Nutzung von NVMe-basierten SSD-Speichereinheiten erlaubt, und das sowohl auf lokalen als auch auf weiter entfernten Systemen. Damit lassen sich bestimmte Kennwerte wie IOPS deutlich steigern und Latenzzeiten reduzieren. Das Ganze resultiert in einem leistungsfähigen und netzwerkübergreifenden Software-definierten Storage-Cluster.
*Der Autor: Sven Nimmich, Storage Solutions Evangelist bei der Lenovo Data Center Group
(ID:46293251)