Im Fokus: Cloud Storage – Datenmanagement Effizientes Datenmanagement für große Datenmengen in der hybriden Multi-Cloud

Autor / Redakteur: Marc Kleff* / Dr. Jürgen Ehneß

Cloud-Speicher helfen dabei, die heutige Flut an Daten zu bewältigen. Momentan werden sie daher in vielen Unternehmen als Baustein einer hybriden Umgebung eingesetzt. Um die Daten in einer solchen hochverfügbar zu halten, müssen alle Ressourcen, egal, ob On-Premises, Public oder Private Cloud, gemeinschaftlich und ganzheitlich verwaltet werden. Dieses konsistente Datenmanagement gelingt mit dem Aufbau einer Data Fabric.

Firmen zum Thema

Im Fokus: Cloud Storage – je mehr Daten, desto unübersichtlicher wird’s. Abhilfe schafft ein geeignetes Datenmanagement.
Im Fokus: Cloud Storage – je mehr Daten, desto unübersichtlicher wird’s. Abhilfe schafft ein geeignetes Datenmanagement.
(Bild: © Gorodenkoff - stock.adobe.com)

Für viele neue Applikationen beginnt das Leben heute in der Cloud. Sie starten in der Regel klein, oftmals werden sie nach einer ersten Testphase wieder verworfen. Haben sich die Anwendungen im Laufe der Zeit jedoch durchgesetzt und eine gewisse Größe erreicht, macht ist aus Kostengründen oftmals sinnvoll, sie wieder zurück ins lokale Rechenzentrum zu verlagern. Insbesondere dann, wenn diese Applikationen große Datenmengen verarbeiten. Doch wie geht man dabei vor? Auch der umgekehrte Fall, bei dem Workloads von einer On-Prem-Umgebung in die Cloud migriert werden sollen, wirft diese Frage auf. Im Vordergrund sollte bei beiden Überlegungen eines stehen: das Datenmanagement.

Bedarf zur Datenbewegung

Welche Daten wo abgelegt werden, bestimmt in der Regel der Anwendungsfall. Denn auch wenn heute ein Großteil der Datenflut in die Rechenzentren der großen Cloud-Provider strömt, landen nicht alle Daten dort. So verlangt unter anderem Edge-Computing einen sehr schnellen Zugriff, den die Public Cloud nur schwer gewährleisten kann. Aus diesem Grund favorisieren viele Unternehmen ein Hybrid-Cloud-Modell.

Parallel dazu manifestiert sich der Trend zur Multi-Cloud, weshalb hybride Multi-Cloud-Umgebungen zukünftig an Bedeutung gewinnen werden. Unter diesen Vorzeichen steigt der Bedarf, Daten schnell von On-Premises zu verschiedenen Cloud-Providern und wieder zurück zu bewegen. Datenfragmentierung ist dann eine der Begleiterscheinungen, die das Datenmanagement kompliziert machen. In der Folge können Unternehmen den von Anwendern erwarteten unterbrechungsfreien Zugang zu Daten und Anwendungen nicht erfüllen. Laut „Cloud Data Management Report 2019“ von Veeam https://tech.newstatesman.com/whitepapers/2019-veeam-cloud-data-management-report haben damit 61 Prozent der Firmen in Deutschland zu kämpfen. Lediglich ein Viertel der Unternehmen hierzulande bewertet in der Umfrage das eigene Datenmanagement als reif.

Ganzheitlicher Data-Fabric-Ansatz

Eine performante Verarbeitung an jedem Ort funktioniert zum Beispiel über das Erzeugen von Replikaten und deren intelligentes Verteilen in der Cloud. So lassen sich zum Beispiel Produktivdaten einer On-Premises-Applikation für Test-Dev-Szenarien in die Cloud replizieren, ohne dass für diese Entwicklungsumgebung im eigenen Data Center zusätzliche Hardware benötigt würde. Ein effizientes Datenmanagement für Cloud Storage basiert daher auf einem ganzheitlichen Ansatz, der das Verwalten von Daten über Endpunkte, Infrastrukturen und Cloud-Apps betrachtet.

Für die Umsetzung kommt das Data-Fabric-Konzept in Frage, welches das Datenmanagement über alle Umgebungen hinweg vereinheitlicht und vereinfacht. Die Data Fabric bildet einen Datenmanagement-Layer über alle Infrastrukturen und Protokolle, der Wahlfreiheit hinsichtlich des Ortes für die Speicherung und Verarbeitung von Daten garantiert. Dadurch stehen die Daten zum richtigen Zeitpunkt an der richtigen Stelle zur Verfügung.

Speichersysteme virtualisieren und in die Cloud übertragen

Eine Basis für den Data-Fabric-Ansatz kann geschaffen werden, indem man ein leistungsfähiges Speichersystem virtualisiert und in die Cloud verlagert. Das Ziel dabei: Die Daten mit den wichtigsten Protokollen wie CIFS (Common Internet File System), SMB (Server Message Protocol), iSCSI (internet Small Computer System Interface) sowie NFS (Network File System) so bereitzustellen, wie man es aus dem eigenen Rechenzentrum gewohnt ist. Auf die Weise entsteht ein Enterprise-Storage in der Cloud, in dem die Daten hochverfügbar sind – mit nahezu identischen Funktionalitäten, wie sie im eigenen Data Center zur Verfügung stehen, und den Skalierungsmöglichkeiten einer Public Cloud.

Neues eBook

Umfassender Überblick über die verschiedenen Möglichkeiten für Cloud-Storage

Cloud-Speicher-Strategien im Vergleich

eBook Cloud-Speicher
eBook Cloud-Speicher
(Bildquelle: Storage-Insider)

Die Hauptthemen des eBooks sind:
# Günstig, schnell und sicher: Storage in der Cloud
# Wozu Cloud-Storage-Plattformen?
# Exklusiver Cloud-Storage vor Ort
# Standardisierter Cloud-Storage von Providern
# Das Beste aus beiden Welten vereinen
# Alternativlos – aber die Qual der Wahl bleibt


>>> eBook „Cloud-Speicher-Strategien im Vergleich“ downloaden

Jedoch benötigen nicht alle Unternehmen ein vollwertiges Speichersystem in der Cloud. Viele Firmen wollen die Cloud-Ressourcen über Self-Service-Portale so einfach wie möglich nutzen. Gefragt ist daher ein Dienst, der das Provisionieren und Konsumieren von Storage-Services in der Cloud vereinfacht. Diese Services, wie zum Beispiel Cloud Volumes Service von NetApp, werden über CIFS oder NFS angesprochen. Nutzer richten sie direkt beim Provider ein – beispielweise bei Amazon Web Services (AWS), Microsoft Azure oder Google Cloud.

Über Snapshots synchronisieren

Replikationstechnologien und -beziehungen in der Cloud liefern den nächsten Baustein für ein Data-Fabric-Konstrukt. Insbesondere über Snapshots lassen sich Kopien einfach und schnell erstellen und in der Cloud verteilen, um die Daten zu synchronisieren. Effektiv wird dieser Prozess, wenn er automatisiert abläuft. Ebenso relevant sind Services, die georedundant Daten von On-Premises in die Cloud spiegeln. Mit einem Cloud-Manager lassen sich diese Beziehungen effizient und einfach verwalten.

Neben klassischen Storage-Protokollen empfiehlt es sich für die eigene Data Fabric, Objektspeicher in der Cloud zu integrieren. Angebote wie Amazon S3 sind dafür prädestiniert, beliebige Mengen an Daten für die unterschiedlichsten Anwendungsfälle zu speichern und zu sichern. Natürlich lassen sich auch S3-fähige Systeme wie NetApp StorageGrid bei dieser Integration berücksichtigen. Insbesondere unstrukturierte Daten, wie sie in verteilten IoT-Infrastrukturen oder bei Data-Pipelines für KI- oder ML-Anwendungen auftreten, können von einem Objektspeicher verarbeitet werden. Zudem bieten sie sich für Backup-und-Recovery-Szenarien an.

Auto-Tiering und nutzerfreundliche Managementoberfläche

Über Storage Tiering lässt sich die Nutzung des Speichers im firmeneigenen Rechenzentrum zusätzlich optimieren. Beispielsweise können kalte Daten aus dem Flash- in den Objektspeicher verschoben werden. So bleibt der Flash-Speicher für heiße Daten frei, die in der Regel rund zehn bis zwanzig Prozent des Gesamtaufkommens ausmachen.

Auch die Cloud kann in das Tiering eingeschlossen werden. Idealerweise synchronisiert der Service unabhängig von der Speicher-Hardware des Rechenzentrums den Network Attached Storage (NAS) und das Storage Area Network (SAN) über CIFS und NFS automatisch auf Volumes oder Shares in der Cloud. Zudem gilt es, das Auto-Tiering von Cloud zu Cloud umzusetzen.

Das letzte entscheidende Puzzleteil in diesem Konzept bildet die Cloud-Management-Software, welche die Daten und Replikationsbeziehungen in der hybriden Multi-Cloud verwaltet. Diese sollte automatisch die nötigen und passenden Storage-Ressourcen identifizieren und grafisch darstellen. Anwender können ihren Storage dann einfach über die Nutzeroberfläche per Drag-and-drop verwalten. Zudem lassen sich in der Public Cloud entstehende Kosten identifizieren und auch optimieren. Das bezieht sich nicht nur auf den Storage, sondern auch auf Compute-Ressourcen.

Der Datenkreislauf schließt sich

Marc Kleff, Director Solutions Engineering bei NetApp.
Marc Kleff, Director Solutions Engineering bei NetApp.
(Bild: Marc Kleff)

Einmal eingerichtet, lässt sich über eine Data Fabric ein konsistenter Datenfluss realisieren. Daten lassen sich dann von jedem Rechenzentrum, von jeder Colocation oder von jedem Standort aus zu den gängigen Clouds verlagern. Die daraus resultierende Datenmobilität und die bestehende Wahlfreiheit, wo die Daten gespeichert werden, tragen wesentlich dazu bei, dass ein Unternehmen agil, innovativ und kostenoptimiert handeln kann.

*Der Autor: Marc Kleff, Director Solutions Engineering bei NetApp

(ID:47014652)