Automatisierung des Datenmanagements ist unumgänglich Daten von Anfang an sinnvoll speichern

Autor / Redakteur: Ines Wolf* / Dr. Jürgen Ehneß

Die Problematik akut wachsender Datenmengen ist weithin bekannt. In einer Studie prognostizierte IDC Mitte letzten Jahres, dass 2020 allein 59 Zettabytes (ZB) an Daten erstellt, erfasst, kopiert und konsumiert werden würden. Prognosen gehen davon aus, dass diese Zahl bis 2025 auf 175 Zettabyte steigen wird. Diese Datenmassen gilt es zu speichern und verwalten – ein Prozess, der sowohl arbeits- als auch kostenintensiv ist.

Firmen zum Thema

Um das Potential der unternehmenseigenen digitalen Daten künftig ausschöpfen zu können, ist es wie in der analogen Welt essenziell, sie zunächst entsprechend zu klassifizieren und zu ordnen, um sie überhaupt wiederfinden zu können.
Um das Potential der unternehmenseigenen digitalen Daten künftig ausschöpfen zu können, ist es wie in der analogen Welt essenziell, sie zunächst entsprechend zu klassifizieren und zu ordnen, um sie überhaupt wiederfinden zu können.
(Bild: gemeinfrei / Pixabay )

Um das gesamte Potential der eigenen Daten möglichst kosteneffizient ausschöpfen zu können, benötigen Unternehmen leistungsstarke Datenmanagement- und Analysetools. Bereits 2020 konnten wir einen Anstieg in der Nachfrage nach intelligenten Data-Management-Software-Lösungen sehen. Da immer mehr Daten verwaltet werden müssen und viele Mitarbeiter von Unternehmen weiterhin zunächst größtenteils remote arbeiten werden, wird das Bedürfnis nach automatisierten Managementsystemen nur weiter zunehmen.

Daten als Vermögenswert

Parallel zum Datenwachstum hat auch der Stellenwert der Daten branchenunabhängig immer mehr zugenommen. So gaben in einer Umfrage der Bitkom 85 Prozent der befragten Unternehmen an, Daten eine große Bedeutung für ihren Geschäftserfolg beizumessen. Daten haben sich zu einem Vermögenswert mit eigenem Lebenszyklus entwickelt. Doch bei einem Datenwachstum von mehr als 40 Prozent pro Jahr stehen Unternehmen zunehmend vor der Herausforderung, effiziente Wege zu finden, um diese Daten über ihren gesamten Lebenszyklus hinweg zu verwalten. Aus diesem Grund wird in der Zukunft nicht nur Datenmanagement, sondern auch Analytics für viele Unternehmen weit oben auf der Prioritätenliste stehen.

Den Wert von Daten bestimmen

Die Bestimmung des tatsächlichen Wertes der Daten ist eine beständige Herausforderung. Zwar bedarf es nicht immer gleich eines dedizierten Analysten, doch muss der Zuständige eine grundlegende Vorstellung davon haben, auf welchen Aspekt hin überhaupt analysiert werden soll und welche Daten dafür benötigt werden – sowohl auf kurze als auch auf lange Sicht. Und hier liegt die Herausforderung: Welche Aspekte sind heute relevant, und welche werden es zu einem späteren Zeitpunkt sein? Dieses Wissen ist nur bedingt verfügbar. Umso wichtiger ist daher für Unternehmen zu entscheiden, welche Speicherstrategie am besten geeignet ist, um ihre Daten aufzubewahren. Dazu kommt der Irrglaube, dass alle Daten mit der Zeit an Wert verlieren und einfach in einen günstigen Speicher verschoben werden können, der sich in bestimmten Branchen weiterhin hartnäckig hält. In der Realität jedoch behält der Großteil der unstrukturierten Daten seinen Wert.

Ein gutes Beispiel hierfür sind wissenschaftliche Daten. Hochauflösende Mikroskopaufnahmen beispielsweise, die in verschiedenen wissenschaftlichen Studien verwendet werden können, besitzen einen hohen Wert. In diesen Fällen wird häufig auf eine Originaldatei zugegriffen, ohne diese zu verändern. Für solche statischen Daten sind traditionelle Tools für Backup und Restore weniger geeignet, da sie die gleiche Datei mehrmals speichern würden. Stattdessen wird ein System benötigt, das die Datenverfügbarkeit gewährleistet, ohne die Speicherumgebung unnötig zu belasten.

Ressourcen nicht verschwenden

Für kalte Daten (Cold Data), also Daten, die zwar aufbewahrt, aber nicht regelmäßig abgerufen werden müssen, eignen sich kostengünstigere Langzeitarchive, zum Beispiel auf Tape. Doch nur, weil eine Datei nicht regelmäßig aufgerufen wird, bedeutet das nicht automatisch, dass diese für das Unternehmen keinen Wert hat. Um den Mehrwert aus Archivdaten effizient ziehen zu können, ist es für Unternehmen wichtig, auch Langzeitarchive zu verschlagworten oder zu kategorisieren, damit Inhalte, wenn nötig, schnell wiedergefunden und leicht verfügbar gemacht werden.

Hier kommt das Thema Data Analytics ins Spiel. Durch das konstant steigende Datenvolumen wird auch das Bedürfnis nach Datenmanagement und Analyse 2021 und darüber hinaus ansteigen. Ohne qualitätssichernde Maßnahmen verpassen Unternehmen nicht nur Chancen, die ihnen die Werte ihrer Daten bieten können, sie verschwenden auch Ressourcen. Die Verarbeitung und Bereinigung von Daten kann mehr als die Hälfte der Zeit eines Analyseteams in Anspruch nehmen, einschließlich der Zeit hochbezahlter Data Scientists, was die Skalierbarkeit einschränkt und die Produktivität der Mitarbeiter im Unternehmen reduziert.

Data- und Asset-Management-Plattformen können Unternehmen helfen, ihre Daten zu klassifizieren und mit Metadaten anzureichern. Auch die Datenklassifizierung auf der Basis geschäftsorientierter Tags unterstützt die optimale Auslastung der Speicherkapazitäten – sowohl vor Ort als auch in der Cloud. Dabei erlaubt die Klassifizierung während des Dateneingangs, Speicherressourcen in Echtzeit zu verwalten. Die Verfügbarkeit der Daten wird vereinfacht durch die Vorhaltung in einem strukturierten, systemgebundenen Format.

Neues eBook

Speicher-Technologien im Vergleich

HDD, Flash & Hybrid: Der passende Speicher für jeden Einsatz

eBook HDD, Flash und Hybrid
eBook HDD, Flash & Hybrid
(Bildquelle: Storage-Insider)

In diesem eBook lesen Sie, welche verschiedenen Speicher es gibt und welche Vor- und Nachteile diese haben. Inhalt:

# Der passende Speicher für jeden Einsatz - HDD, SSD und Tape
# HDDs: Heimvorteil und neue Technologien - Festplatten
# Flash-SSDs & Co.: wie ein geölter Blitz - Flash-Speicher
# Storage-Arrays unter die Haube geschaut - SSD, HDD und Hybrid
# Tape: die Kunst der Langzeitarchivierung - Bandlaufwerke


>>> eBook „HDD, Flash & Hybrid: Der passende Speicher für jeden Einsatz“ downloaden

Fehlerquelle Mensch umgehen

Nachdem Daten erfolgreich mit unternehmensrelevanten Tags und Metadaten versehen wurden und eine geeignete Speicherlösung integriert wurde, stehen Unternehmen vor der nächsten Herausforderung: Fehlerquelle Mensch. Das Datenmanagement im Jahr 2021 wird sich weg von manueller Verwaltung und hin zu automatisierten Systemen bewegen, die Künstliche Intelligenz (KI) wie Maschinelles Lernen (ML) unterstützen.

Ein Fehlverhalten von Nutzern, wie etwa das Verschieben von Daten an Orte, wo sie nicht hingehören, oder fehlerhaftes manuelles Metadaten-Tagging, sorgt schnell dafür, dass Dateien nur mit hohem Zeit- und Arbeitsaufwand wiedergefunden werden können. Aus diesem Grund setzen immer mehr Unternehmen auf ein automatisiertes Datenmanagement und künstliche Intelligenz. Laut Gartner werden sich bis Ende 2024 75 Prozent der Unternehmen, die aktuell mit KI experimentieren, für eine Implementierung entscheiden. Dies wird mit einer Verfünffachung der Datenströme und der Infrastrukturen für die Datenanalyse einhergehen.

Unternehmen benötigen Systeme, die im ersten Schritt automatisch und in regelmäßigen Abständen jedes verfügbare dateibasierte Speichersystem nach spezifischen Kriterien durchsuchen, alle Informationen bündeln und sie an einem zentralen Ort ablegen. Diese Systeme erfassen Metadaten, strukturieren sie so, dass sie durchsuchbar sind, und bieten so einen Überblick darüber, was sich in einer Speicherumgebung befindet. Im zweiten Schritt analysieren sie die Metadaten und nutzen das gewonnene Wissen, um den Speicher zu optimieren und Geschäftsvorteile zu schaffen.

Effizienz durch erkenntnisbasierte Automatisierung

Der Sinn, die Datenverwaltung zu automatisieren, besteht darin, Standards festzulegen, mit denen Programme und Anwendungen Daten kennzeichnen können. Diese Identifikatoren sind abhängig von dem aktuellen Speicherort der Daten, wo sie sich innerhalb des Workflows gerade befinden und wie sie in der nahen (oder erweiterten) Zukunft genutzt werden sollen.

Ähnlich einer Sendungsverfolgung, die den Transportweg von Bestellungen trackt, damit bei Abweichungen vom Standard, wie etwaigen Verzögerungen, reagiert werden kann, überwachen diese Systeme rund um die Uhr den Zustand ihrer Daten. So können Unternehmen in Echtzeit entscheiden, wann zum Beispiel eine Datei in eine günstigere Speicherebene verschoben werden kann. Zudem kann eine Anwendung, basierend auf Erkenntnissen, die aus der Analyse von Metadaten und Tags gewonnen werden, mit dem Speichersystem kommunizieren und das automatisierte und gezielte Platzieren von Daten einleiten. Das System kann beispielsweise übermitteln, dass eine Datei zu einem bestimmten Zeitpunkt auf Flash-Speicher abgelegt werden soll, um von dort aus von Anwendung A verarbeitet zu werden. Sobald Anwendung A die Verarbeitung abgeschlossen hat, kann sie dem Speichersystem mitteilen, die Datei wieder an den ursprünglichen Speicherort zu verschieben.

Symbiose zwischen Daten und Speicher

Sinnvoll und ressourcenschonend wäre es, wenn das System quasi eine Symbiose zwischen Daten und Speicher erlaubt. Dazu gehört die Bereitstellung virtueller Dateisystemansichten bestimmter Datensätze, basierend auf Tags in Metadaten. Anwender können Daten in virtuellen Dateisystemansichten für die Zusammenarbeit zwischen den Anwendern und Organisationen visualisieren, ohne doppelte Kopien zu erstellen oder die Datensicherheit zu lockern. Durch eine gezielte Platzierung von Daten sollten Anwendungen Daten zur Verfügung gestellt werden, wann und wo der Workflow sie benötigt.

Ines Wolf, Manager Presales CE bei Quantum.
Ines Wolf, Manager Presales CE bei Quantum.
(Bild: Quantum)

*Die Autorin: Ines Wolf, Manager Presales CE bei Quantum

(ID:47467222)