Daten richtig speichern und verwalten 10 Punkte, die es beim Datenmanagement zu beachten gilt

Autor / Redakteur: Peter Kruth* / Dr. Jürgen Ehneß

Die Logistik von Industrie-Unternehmen wird seit Jahrzehnten optimiert. Der Erfolg kann dabei über die Zukunft des gesamten Betriebes entscheiden. Datenmanagement ist nichts anderes, nur dass es hier um die Verwaltung von Unternehmensinformationen geht. Auch hier entscheiden die Strategie und die Umsetzung über das Ergebnis der Digitalisierung und die Zukunft der Firma.

Firmen zum Thema

Die richtige Strategie beim Data-Management ist mitentscheidend für den Geschäftserfolg eines Unternehmens.
Die richtige Strategie beim Data-Management ist mitentscheidend für den Geschäftserfolg eines Unternehmens.
(Bild: gemeinfrei / Pixabay )

Nahezu alle Unternehmen (98,5 Prozent) befinden sich laut der IDG-Studie „Enterprise Storage 2021“ in der Digitalisierung. Als wichtigste Themen wurden IT-Infrastruktur/Architektur/Colocation (46 Prozent) und Cloud (42 Prozent) von den Teilnehmern benannt, knapp gefolgt von Cybersecurity (36 Prozent) und Data Analytics/Big Data (34 Prozent). Danach folgen, mit jeweils mehr als 20 Prozent, Künstliche Intelligenz/Machine Learning, Internet of Things sowie Storage-Strategien und -Lösungen.

Anhand dieser Priorisierung lassen sich die zukünftigen Anforderungen an die Daten und damit an das Datenmanagement ableiten.

1. Datenmobilität

Die beiden ersten Themen, Infrastruktur und Cloud, besagen, dass in der Zukunft innerhalb der Industrie sowohl hybride Cloud-Infrastrukturen als auch herkömmliche IT-Stacks betrieben werden. Aufgrund verschiedener Anforderungen wird diese Mischform uns noch länger begleiten. Die Konsequenz daraus ist, dass die Daten den sie verarbeitenden Prozessen folgen müssen. Eine Anwendung, die heute im lokalen Datenzentrum betrieben wird, kann morgen schon in der Cloud liegen oder umgekehrt. Das Datenmanagement muss also Funktionen anbieten, die es ermöglichen, Daten bedarfsgerecht zu verschieben, zu replizieren beziehungsweise zu synchronisieren.

Die Notwendigkeit der Datenmobilität ergibt sich ebenso aus dem Trend zum Edge-Computing. Die Informationen liegen verteilt über viele Standorte und sind genauso zu verwalten wie auf allen anderen Storage-Plattformen. Dort bestehen sogar Möglichkeiten, datenintensive Workloads direkt auf den Speichersystemen, zum Beispiel als Container, auszuführen – was eine ganz neue Möglichkeit für Storage-Klassen darstellt.

Als ein Seiteneffekt der Datenmobilität gilt die Verhinderung von heute üblichen Migrationsprojekten. Im günstigsten Fall können über Herstellergrenzen hinweg Daten unterbrechungsfrei verschoben werden.

2. Automation/Autonomie

Das Betriebsmodell Cloud beinhaltet im Wesentlichen die Automatisierung von IT-Prozessen. Dort muss sich das Datenmanagement nahtlos integrieren. Basierend auf beschreibenden Informationen (Data-Labels), hat die Bereitstellung automatisch zu erfolgen. Zusätzliche Funktionen wie Kapazitäts-Reporting und -voraussage, vorbeugende Instandsetzung und Systemoptimierung sind der Weg zur autonomen Datenhaltung.

3. Data-Labeling

Als Voraussetzung für eine Automatisierung werden beschreibende Informationen für Daten und Datengruppen benötigt. Idealerweise könnte dies über ein Entscheidungssystem (KI- und/oder Regel-basiert) erfolgen. Bis es so weit ist, erfolgt dies über die jeweilige Anwendung (zum Beispiel Manifest-Dateien bei Containern) oder über den Anwendungsverantwortlichen.

4. Hochverfügbarkeit

Aus oben genannter Studie geht hervor, dass die hundertprozentige Verfügbarkeit des Storage die Anforderung Nummer eins ist. Das setzt nicht nur eine hohe Verfügbarkeit an einem Standort voraus, sondern erfordert auch Replikationsmechanismen zu anderen Standorten. Heute in Deutschland übliche Metrodistanzen von zehn bis 30 Kilometern sind bei der erhöhten Katastrophengefahr zu überdenken. Hier sollte zumindest über einen dritten Standort, größere Distanzen oder eine Spiegelung in die Cloud nachgedacht werden.

5. Datensicherheit und Datenschutz

Auf Platz drei, direkt hinter Infrastruktur und Cloud, ist das Thema Datensicherheit. Trotz aller Schutzvorkehrungen im Rechenzentrum und in der Cloud muss davon ausgegangen werden, dass Schadroutinen bis zum Storage vordringen. Hier sind Mechanismen zu integrieren, die sowohl den Zugriff auf Daten beschränken als auch dann reagieren, wenn diese letzte Bastion überwunden wurde. Continuous Data Protection auf der Storage-Ebene kann hier die angesagte Lösung darstellen. Voraussetzung ist natürlich, dass diese die Performanz nicht beeinträchtigt und ein möglichst kurzes RPO und RTO gewährleistet.

Unternehmen gehen heute dazu über, erzeugte Daten nicht mehr zu löschen. Der Wert dieser Informationen kann zum Zeitpunkt der Erstellung nicht bestimmt werden. Heute nutzlose Informationen können morgen schon die Basis für einen Vorteil am Markt sein. Betriebliche und rechtliche Rahmenbedingungen erfordern gegebenenfalls das Gegenteil und legen Aufbewahrungs- und Löschfristen fest. Diese werden genau wie die Sicherheitsklassen beim Daten-Labeling erfasst. Entsprechende Storage-Klassen sorgen für eine rechtskonforme Ablage und Archivierung oder Vernichtung.

6. Multi-Protokoll

Big Data, wie auch KI und IoT, erfordern unterschiedliche Zugriffsmechanismen. Ein ideales Datenmanagement sollte Daten für diese Anwendungsfälle unabhängig vom Zugriffsprotokoll ablegen. Das verhindert unnötige Replikate, schont die Bandbreite und vermeidet Fehler durch veraltete Datensätze. Hier sind neben den üblichen Protokollen wie NFS und SMB auch HDFS und S3 gefragt. Ein Client für High-Performance-Computing ermöglicht den zeitkritischen Zugriff auch für diesen Anwendungsfall.

7. Massendaten

Die zukünftigen Datenmengen in einem Unternehmen sind zurzeit kaum absehbar. Mit dem Digitalisierungsfokus in Unternehmen entstehen laufend neue Anforderungen, die kurzfristige Skalierungsmöglichkeiten im Petabyte-Bereich erfordern. Spezielle IoT-Lösungen, die auch Video- und Schallaufzeichnungen benötigen, sollen hier nur beispielhaft benannt werden.

Ein weiteres Erfordernis ist, dass große Datenmengen für KI und Big Data im Zugriff gehalten werden sollten. Offline-Medien beinhalten die Gefahr, dass darauf gespeicherte Informationen nicht zeitgerecht monetarisiert werden können.

8. Performanz

Über Storage-Performanz wird in Unternehmen immer erst dann gesprochen, wenn sie für die Anwender, je nach Leidensfähigkeit, unerträglich ist. Gerade schnell reagierende Geschäftsanwendungen können die Akzeptanz der Kunden positiv beeinflussen und die Effizienz im Unternehmen wesentlich steigern. Ebenso können Batch-Prozesse beschleunigt oder sogar in Echtzeitsysteme überführt werden. Quality of Service ist daher im Datenmanagement zu unterstützen.

9. Storage-Access

Größere Datenmengen erfordern größere Bandbreiten. Zusätzlich wird aus Performanzsicht eine geringere Latenz erwartet. Heute realisiert man dies über verschiedene Storage-Netzwerke. Das erhöht die Komplexität in der Bereitstellung und erfordert zusätzliche Datenkopien. Nicht umsonst sind All-IP-Lösungen ein aktueller Trend im Storage-Umfeld. Mit Remote Direct Memory Access (RDMA) werden die Latenzen in den Mikrosekundenbereich gesenkt, und über 25/100/400-Gb-Ethernet stehen entsprechende Bandbreiten bedarfsgerecht zur Verfügung.

10. Umweltschutz

Immer mehr Unternehmen verankern in ihrer Strategie ambitionierte CO2-Ziele. Die Rechenzentren und damit auch das Datenmanagement haben ihren Beitrag zu leisten. Dies wird in immer mehr Projekten berücksichtigt. Für das Datenmanagement bedeutet dies, dass neben den Kosten auch der CO2-Fußabdruck auszuweisen ist. Speziell der Übergang von mechanischen Festplatten zu elektronischen Flash-Speichern bietet hier ein hohes Einsparpotenzial.

Die Anforderungen für ein zukunftsgerechtes Datenmanagement sind äußert vielfältig und orientieren sich an der Unternehmens- und IT-Strategie. Der heute vielleicht wichtigste Vermögenswert einer Firma genießt nicht umsonst unsere volle Aufmerksamkeit.

Huawei bietet hier eine durchgängige Lösung. Die Systeme OceanStor Dorado, OceanStor Pacific und OceanProtect bilden die physikalische Grundlage. Die Data-Management-Engine (DME) ist das Gehirn, welches die Datenströme orchestriert. Über KI-unterstützte Ende-zu-Ende-Prozesse werden alle oben genannten Anforderungen erfüllt.

Der Weg zum autonomen Datenmanagement ist damit eröffnet!

Peter Kruth, Huawei
Peter Kruth, Huawei
(Bild: Huawei)

*Der Autor: Basierend auf einem breiten Wissen über IT-Infrastrukturen, Cloud-Lösungen bis zu Anwendungssystemen und umfangreichen Erfahrungen mit Enterprise-Kunden aus verschiedenen Industriebereichen, ist Peter Kruth verantwortlich für das Design und die Architektur von effizienten kundenspezifischen Rechenzentrumslösungen. Der Fokus liegt dabei auf flexiblen Cloud- und KI-unterstützten Technologien. In der Freizeit beschäftigt er sich unter anderem mit der Entwicklung von Progressive Web Apps (PWA) im IoT-Umfeld.

Aktuelles eBook

Speicherinfrastrukturen in Unternehmen

On-Premises oder Storage-as-a-Service?

eBook NAS
eBook „Speicherinfrastrukturen“
(Bildquelle: Storage-Insider)

Speicher ist wichtiger denn je, denn die notgedungen forcierte Digitalisierung vieler Lebensbereiche und der Wirtschaft beruht darauf, dass ein Großteil der Daten abgelegt wird, bevor sie ausgetauscht werden können. In diesem eBook erfahren Sie, welche Cloud-Storage-Angebote es für den Mittelstand gibt, wie viel Speicherinfrastruktur ein Unternehmen benötigt und wie man eine Strategie für die Ausbalancierung der Speicherinfrastruktur entwickelt.

Die Themen im Überblick:

  • Wie viel Speicherinfrastruktur benötigt ein Unternehmen?
  • Ausbalancierung von On-Premises und Cloud-Speicher
  • Cloud-Storage-Anbieter und -Lösungen für den Mittelstand

(ID:47639209)