Effiziente Datennutzung erfordert Konsolidierung auf einer Plattform Über Datenberge und Propheten
Anbieter zum Thema
Unternehmen verbringen viel Zeit damit, ihre produktiven Daten in separate Umgebungen zu kopieren, um daraus Mehrwert für ihr Business zu erhalten. Deutlich effizienter ist es jedoch, die entsprechenden Anwendungen zu den bereits vorhandenen Daten zu bringen.

Daten sind zu einem der wichtigsten Güter in der digitalen Wirtschaft geworden. So erlangen die heutigen Branchenführer deutliche Wettbewerbsvorteile und eine größere Flexibilität durch die effiziente Nutzung ihrer Daten. Doch viele Unternehmen kämpfen damit, wichtige Erkenntnisse und damit Mehrwert aus ihren Daten zu ziehen, obwohl sie die hohe strategische Bedeutung dieser Anforderung erkennen. Dabei wird die Fähigkeit für eine umfassende und transparente Datenauswertung immer wichtiger, da die von Unternehmen erzeugte und gespeicherte Menge der Daten weiterhin exponentiell wächst.
Wenn Unternehmen Mehrwert aus ihren Daten erhalten möchten, denken sie meist an Analysen. Aber das ist nur eine Möglichkeit. Um die Alternativen zu verstehen, sind zunächst die beiden übergreifenden Probleme zu betrachten, die Unternehmen an einer effizienten Auswertung ihrer Daten hindern.
Das häufigste Problem ist die Mass-Data-Fragmentation. Das bedeutet: Die Daten haben sich im Laufe der Zeit über eine Reihe von Infrastruktursilos, Standorten und Managementsystemen hinweg verbreitet. Aufgrund dieser unkontrollierten Ausbreitung der Daten haben Unternehmen nun Schwierigkeiten damit, diese sinnvoll zu nutzen. Denn sie wissen nicht einmal, über welche Daten sie überhaupt verfügen und wo sich diese befinden.
Der bisherige Ansatz
Eine weitere Herausforderung entsteht durch den veralteten Prozess, den viele Unternehmen zur Wertschöpfung aus Daten einsetzen. Sie erstellen häufig Kopien von Daten und verschieben diese in separate Infrastrukturen. Dort führen sie jeweils verschiedene Anwendungen für spezielle Aufgaben wie Analyse, Cybersicherheit und Compliance aus.
Zum Beispiel erstellen sie einen Snapshot der Daten aus den produktiven Applikationen wie CRM- und ERP-Systemen sowie aus Office-Programmen oder Datenbanken. Anschließend übertragen sie die Daten in spezielle Analyse-Anwendungen oder Sicherheits-Tools. Diese werten die Daten aus, um aktuelle Trends oder Malware zu erkennen. Dieser Ansatz ist auf mehreren Ebenen höchst ineffizient. So können durch die Kopier- und Übertragungsprozesse Fehler sowie unterschiedliche Datenpools entstehen.
Diese Vorgehensweise erzeugt auch in zweierlei Hinsicht finanzielle Herausforderungen: Je mehr Datensilos verwaltet, überwacht, geschützt und gespeichert werden müssen, desto stärker steigen die Kosten. Weiterer finanzieller Aufwand entsteht durch die notwendige Wartung der redundanten bisherigen Infrastruktur, um die häufig ineffizienten alten Anwendungen zu hosten.
:quality(80)/images.vogel.de/vogelonline/bdb/1683300/1683356/original.jpg)
Datensicherung von lokalen Servern und in die Cloud
Azure Backup mit dem Windows Admin Center steuern
Neue Denkweise und Infrastruktur
Heute gibt es einen besseren Ansatz, um Mehrwert aus Daten zu ziehen. Dieser erfordert keine Verschiebung von Daten in eine separate Infrastruktur. Die unzähligen vorhandenen Datenkopien werden hier durch eine Software-definierte und plattformübergreifende Lösung konsolidiert. Wenn Daten bereits beim Einspielen auf diese hyperkonvergente, webbasierte Datenplattform indiziert werden, erleichtert das ihr späteres Wiederfinden und ihre Nutzung. Damit können Unternehmen ihre Backup- und Datensicherungsprozesse deutlich verschlanken. Zudem lassen sich Datei- und Objektdienste sowie Test-, Entwicklungs- und Analysesysteme in einen globalen Datenspeicher integrieren, um strukturiert auf alle Daten zuzugreifen.
Unternehmen können somit die große Mehrheit ihrer Daten auf einer Software-Plattform vorhalten, die sich über eine Benutzeroberfläche verwalten lässt. Dies vereinfacht nicht nur deutlich den Prozess für die Sicherung und den Schutz der Daten bei gleichzeitiger Senkung der Infrastrukturkosten. Zugleich eröffnen sich dadurch auch viele neue Möglichkeiten, um auf einfache Weise geschäftlichen Nutzen aus Daten zu ziehen.
Zahlreiche geschäftliche Vorteile
Sobald die Daten auf einer einzigen Software-Plattform konsolidiert sind, können Anwendungen direkt auf derselben Datenmanagementplattform ausgeführt werden. Wenn man Anwendungen von Drittanbietern zu den Daten bringt, anstatt die Daten zu den Anwendungen zu bringen, beschleunigen sich deutlich die Prozesse, um Erkenntnisse aus den Daten zu gewinnen. Zudem reduzieren sich Komplexität und Kosten, da nur eine Plattform statt verschiedenen Infrastrukturen genutzt wird.
Ein weiterer Punkt: Die Standardpraxis in den meisten Unternehmen zur Durchführung von Malware- und Compliance-Scans ist das Warten auf ein „geplantes Wartungsfenster“. Dies führt jedoch zu einer unnötigen Verschwendung von Zeit und Ressourcen. Außerdem eignet sich diese veraltete Vorgehensweise nicht für eine moderne Anwendungsumgebung, in der Scans rund um die Uhr durchzuführen sind. Das Warten auf Wartungsfenster führt auch zur Verwendung einer alten Momentaufnahme der Daten, während die Scans eigentlich nach Schwachstellen in der aktuellen Datenumgebung suchen sollten.
Schließlich stellt die Ausführung von Compliance-Anwendungen oder Malware-Erkennung außerhalb der Datenumgebung auch eine Sicherheitslücke für das Netzwerk dar. Die Ausführung dieser Scans auf einer modernen Datenmanagementplattform birgt dagegen keinerlei Risiko für das Netzwerk, ermöglicht Datenscans bei Bedarf und gewährleistet, dass Unternehmen Ihre aktuelle Datenumgebung prüfen. Zudem spart dieser Ansatz erheblich Zeit und Kosten.
Den Umgang mit Daten ändern
Der Wert und die Bedeutung von Daten ist inzwischen zu einem wichtigen Thema für die Führungsebene von Unternehmen geworden. Wer nicht einen modernen Ansatz zur Gewinnung von Mehrwert aus Daten einsetzt, wird einen hohen Preis dafür zahlen. Dies geschieht nicht nur in Form von verpassten Geschäftschancen, sondern auch höheren Kosten, weniger produktiven IT-Mitarbeitern sowie einer größeren Anfälligkeit von Netzwerken und Daten.
:quality(80)/images.vogel.de/vogelonline/bdb/1683900/1683937/original.jpg)
Flexible Abrechnungsmodelle für NetApp Data Fabric
„Die Budgets sind geschrumpft“
Der Widerstand gegen Veränderungen liegt oft an bestehenden Prozessen, Fähigkeiten und Lieferantenbeziehungen. Diese stellten früher vielleicht die optimale Lösung dar, sind aber inzwischen nicht mehr unbedingt effizient. Angesichts der digitalen Wirtschaft und des rapide steigenden Wertes, der Geschwindigkeit und des Volumens der Daten ist „gut genug“ nicht mehr wirklich gut genug. Denn es geht heute darum, den maximalen Wert aus den Daten herauszuholen.
Die Überwindung der Mass-Data-Fragmentation ist heute erfolgsentscheidend. So müssen Daten auf einer einzigen Plattform konsolidiert werden. Anschließend sollten Unternehmen die Leistungsfähigkeit der Plattform für die direkte Ausführung von Anwendungen auf den Daten nutzen. Schließlich hat sich in den vergangenen Jahren gezeigt, dass der Unterschied zwischen erfolgreichen und gescheiterten Unternehmen darin besteht, wie sie ihre Daten verwalten und schützen sowie einen Mehrwert daraus gewinnen – ob durch analytische Erkenntnisse oder innovative Nutzungsszenarien. Mit Hilfe aktueller Lösungen ist dies auch für traditionelle Unternehmen kein Hexenwerk mehr.
*Der Autor: Wolfgang Huber, Regional Director Central Europe bei Cohesity
(ID:46413871)