Datenmodelle in der Cloud und Storage-Strategie So geht sicheres Datenmanagement in der Hybrid-Cloud

Autor / Redakteur: Ina Schlücker* / Dr. Jürgen Ehneß

Mit einer hybriden Infrastruktur wollen sich Unternehmen zukunftsfähig aufstellen. Damit das gelingt, müssen sie ihr Datenmanagement neu überdenken und sich von herkömmlichen Datenmodellen und Storage-Strategien verabschieden. Worauf es dabei besonders ankommt.

Cloud-Lösungen als Teil der Storage-Architektur sind mittlerweile Alltag.
Cloud-Lösungen als Teil der Storage-Architektur sind mittlerweile Alltag.
(Bild: gemeinfrei / Pixabay )

Agilität, Flexibilität und Skalierbarkeit: drei entscheidende Gründe, warum Unternehmen auf Cloud Computing setzen. Laut den Marktforschern von Aberdeen arbeitet Mitte 2021 mehr als jedes zweite Unternehmen mit hybriden Cloud-Strukturen. Die Vorteile: Mit On-Premises-Installationen und einer Private Cloud lassen sich regulatorische und Sicherheitsanforderungen abdecken, während die Public Cloud immer dann punktet, wenn es um bedarfsgerechte, kostengünstige Computing-Kapazitäten geht.

Wie sieht eine solche hybride IT-Landschaft konkret aus? Unternehmen halten in ihren Rechenzentren oder bei externen Dienstleistern eine eigene Infrastruktur vor, welche die durchschnittlichen Workloads verarbeiten kann. Treten Lastspitzen auf, kommen automatisiert Public-Cloud-Ressourcen ins Spiel, die sich flexibel hinzu- oder abbuchen lassen. Um die hybriden Umgebungen zuverlässig abzusichern, müssen Unternehmen jedoch ihre Strategie in puncto Daten- und Speichermanagement anpassen und auf den neuesten Stand bringen.

Hybride Komponenten auf dem Prüfstand

Gefordert sind Konzepte und Technologien, die transparent abbilden, welche Daten an welchen Stellen der hybriden Infrastruktur verarbeitet oder gespeichert werden, etwa um Compliance und Datensicherheit zu gewährleisten. So dürfen laut der Datenschutzgrundverordnung (DSGVO) personenbezogene Daten den europäischen Rechtsraum nicht verlassen. Hier punkten jene Public-Cloud-Angebote, die sicherstellen, dass sensible Daten in Europa verbleiben und damit rechtskonform verarbeitet werden. Ein Beispiel hierfür ist die Open Telekom Cloud, bei der die Daten in Rechenzentren in Magdeburg und Biere sowie ab Anfang Februar 2020 auch in den Niederlanden vorliegen.

In einer hybriden Welt steht jedoch nicht nur der Cloud-Provider, sondern auch die firmeneigene IT auf dem Prüfstand. So sollten Unternehmen Speichersysteme nutzen, die sich nahtlos in die hybride Infrastruktur einbinden lassen. Lösungen wie die OceanStor Pacific Series von Huawei lassen sich beispielsweise sowohl in dedizierten On-Premises-Speicherumgebungen als auch in Private Clouds nutzen. Sie umfassen Standardschnittstellen sowohl für Block-, Objekt- und Dateispeicher als auch für Big-Data-Analysen auf Basis des Hadoop Distributed File System (HDFS). Der Vorteil: Silostrukturen gehören der Vergangenheit an, komplizierte Speicheroperationen – ob in der Cloud oder im Rechenzentrum vor Ort – lassen sich einfacher verarbeiten.

Das Löschen nicht vergessen

Mit modernen Storage-Systemen haben Unternehmen ihr Datenmanagement besser im Griff. Ein Beispiel: Nicht alle anfallenden Daten dürfen auch gespeichert werden. Im Gegenteil müssen Unternehmen aufgrund gesetzlicher Vorgaben einmal erhobene Daten sogar wieder löschen können – und zwar nachweislich und endgültig. Intelligente Speicher-Software ermöglicht es, Daten automatisiert entweder an weiterverarbeitende Systeme und Langzeitarchive zu übergeben oder sofort oder nach Ablauf einer Frist zu löschen. Letzteres funktioniert am besten mittels Objektspeicher, der die Metadatensätze mit den relevanten Aufbewahrungs- und Löschfristen auslesen kann.

Neues eBook

Umfassender Überblick über die verschiedenen Möglichkeiten für Cloud-Storage

Cloud-Speicher-Strategien im Vergleich

eBook Cloud-Speicher
eBook Cloud-Speicher
(Bildquelle: Storage-Insider)

Die Hauptthemen des eBooks sind:
# Günstig, schnell und sicher: Storage in der Cloud
# Wozu Cloud-Storage-Plattformen?
# Exklusiver Cloud-Storage vor Ort
# Standardisierter Cloud-Storage von Providern
# Das Beste aus beiden Welten vereinen
# Alternativlos – aber die Qual der Wahl bleibt


>>> eBook „Cloud-Speicher-Strategien im Vergleich“ downloaden

Künstliche Intelligenz braucht heiße Daten

Neben Datenschutz und -sicherheit kommt es beim Datenmanagement auf die Performance an. Denn um wettbewerbsfähig zu bleiben, werten die Unternehmen immer größere Datenmengen in Echtzeit aus. Kein leichtes Unterfangen angesichts der globalen Datenexplosion, zuletzt durch die Covid-19-Pandemie weiter befeuert. So wurden laut dem Marktforschungsinstitut IDC im vergangenen Jahr weltweit fast 60 Zettabytes an Daten erstellt, erfasst, kopiert und genutzt. 2019 war es nur gut die Hälfte.

Die Gründe für den Anstieg sind vielfältig. Aufgrund mehrerer Corona-Lockdowns arbeiteten die Beschäftigten zunehmend von zu Hause aus und kommunizierten über leistungshungrige Kollaborations-Tools und Videokonferenzen. Parallel dazu stieg die private Nutzung von hochaufgelösten Videos und Streamingdiensten stark an.

Gleichzeitig setzen immer mehr Unternehmen auf datengetriebene Analysen und Geschäftsmodelle auf Basis von Machine Learning und Künstlicher Intelligenz. Um die notwendigen Algorithmen dabei bestmöglich trainieren zu können, ziehen die Unternehmen ihre Archivdaten heran. Das gelingt allerdings nur mit den passenden Speichersystemen. Bisher klassifizierten Unternehmen ihre Daten als „cold“, „warm“ und „hot“: Auf „heiße“ Daten müssen Nutzer regelmäßig und sofort zugreifen können. Auf „warme“ Daten greifen sie nur hin und wieder zurück, während „kalte“ Daten im Tagesgeschäft nicht mehr gebraucht werden und in Langzeitarchiven lagern.

Um Maschinelles Lernen und Künstliche Intelligenz so effektiv wie möglich nutzen zu können, muss allerdings jederzeit ein Echtzeitzugriff auf alle Unternehmensdaten möglich sein. Sprich: Datenmodelle verschieben sich von starren Speicherhierarchien hin zu einem großen Datenpool, auf dessen Basis sich aktuelle wie auch historische Daten gleichermaßen auswerten lassen. Lösungen wie die OceanStor Pacific Series speichern die Daten bereits automatisch an den richtigen Stellen der Plattform ab. Das Ergebnis: Datensilos lassen sich vermeiden, und die Performance steigt enorm an, da die Analyse-Software relevante Informationen nicht mehr mühsam aus unterschiedlichen Speicherschichten zusammenfügen muss. Weiterer Effekt: Die Speicherumgebung lässt sich einfacher verwalten – denn statt drei verschiedenen Systemen nutzt man nur noch eins. Das verringert den Konfigurationsaufwand und entlastet die Administratoren.

Ina Schlücker, Palmer Hargreaves.
Ina Schlücker, Palmer Hargreaves.
(Bild: Palmer Hargreaves)

*Die Autorin: Ina Schlücker ist seit 2019 als Senior PR-Redakteurin bei Palmer Hargreaves tätig. Bereits seit 2001 schreibt sie als Fachjournalistin über verschiedene IT- und Kommunikationsthemen. Zu ihren aktuellen Schwerpunkten zählen Cloud Computing, Data Center, künstliche Intelligenz und Digitalisierung.

(ID:47103871)