Suchen

Big Data und Analyse Die Datenqualität verhält sich im schlimmsten Fall reziprok zum Datenwachstum

Redakteur: Rainer Graefen

Wenn heute von Daten die Rede ist, geht es um die Flut von Daten. Es gibt so viele Daten, dass herkömmliche Analysetools unbrauchbar werden.

Firmen zum Thema

Andrew Gilman, Senior Director of Corporate and Channel Marketing bei Actifio
Andrew Gilman, Senior Director of Corporate and Channel Marketing bei Actifio
(Actifio)

Die immense Datenmenge kann sich für Anwenderunternehmen zu einer kaum lösbaren Herausforderung entwickeln, vor allem für diejenigen, die mit der Nutzung dieser Daten für die weitere Geschäftsentwicklung beauftragt wurden. Da die Datenlawine weiter rollt, entwickeln Lösungsanbieter neue Instrumente, um künftig mit der unermesslichen Menge von Informationen umgehen zu können.

Was können wir bezüglich der Datenmengen in der Zukunft von Big Data erwarten? Wenn wir Daten in einer exponentiell zunehmenden Rate generieren, ist das Potenzial dann unbegrenzt?

Laut IDC nimmt die Menge an Produktionsdaten auf einer linearen Skala um 10 Prozent im Jahr zu. Das exponentielle Datenwachstum wird vor allem verursacht von Kopien der Produktionsdaten aus traditionellen Einzelsystemen für Anwendungsfälle wie Backup, Disaster Recovery, Test und Entwicklung, Analyse etc.

Es ist entscheidend, dass Unternehmen beginnen, diese Ursache zu verstehen. Das Datenwachstum lässt sich in den Griff bekommen mithilfe der Virtualisierung der Datenkopien, wodurch eine effiziente Datenverwaltung möglich wird. Vergleichbar mit der Server, Computing und Netzwerkinfrastruktur Virtualisierung im letzten Jahrzehnt, ist die Virtualisierung der Datenkopien der nächste konsequente Schritt, um die Effizienz weiter zu maximieren.

IDC schätzt die aktuelle Investition in die Verwaltung von Datenkopien mit traditionellen Einzelsystemen auf rund 47 Milliarden US-Dollar im Jahr 2015. Dies bietet eine enorme Chance für Unternehmen, diese Investition in geschäftlich sinnvollere Aktivitäten wie Datenanalyse zu stecken.

Was sollte vor einer Big-Data-Analyse beachtet werden?

Die Virtualisierung von Datenkopien ist die Voraussetzung für Big-Data-Analysen.

In Zukunft wird der Chief Data Officer eine wesentliche Rolle in jeder Vorstandsetage spielen. Wie wird diese Rolle aussehen?

Daten sind der Kern eines jeden Unternehmens. Positionen wie der Chief Data Officer werden an Bedeutung gewinnen und sich in den Vorstandsetagen weiter etablieren.

Was sind einige mögliche Fallstricke, die Unternehmen vermeiden müssen bei der Bewältigung ihrer Herausforderungen in Sachen Big-Data-Analyse?

Ohne die Trennung der Produktionsdaten von den Datenkopien und die Virtualisierung der Datenkopien – für eine effektive Verarbeitung – wird sich die Big-Data-Analyse als große Herausforderung erweisen.

Was müssen Unternehmen in Betracht ziehen, wenn sie sich an Big-Data-Analyseprojekte heranwagen?

Die Menge der Daten ist nicht so entscheidend wie die Qualität der Daten und ihre Quelle, um sinnvolle Projektergebnisse zu erzielen.

(ID:43530316)