Anbieter zum Thema
Datenberg kontra Metadaten
Das ist auch bei vielen Firmen nicht anders. Vielleicht lernen wir demnächst einen Cloud-Provider kennen, der 100 Petabyte Daten verwaltet. Aber muss ich deshalb diesen Datenberg durchforsten? Dafür gibt es schließlich Metadaten.
Und die Sorge der Experton Group, dass „in diesen Dimensionen aktuelle Technologien und Methoden nicht skalieren“, sollte man nicht zu Ernst nehmen. Warum sollte für diese Daten eine skalierfähige Technik einsetzen? Das sind Archivdaten.
Da stellt sich eigentlich nur die Frage, wie man sich dieser Daten entledigt und wie man für die historisch wertvollen Bestände die Stromrechnung niedrig hält. Und die Alternativen lauten hier bekanntlich MAID oder Tape. Damit fällt die Echtzeitanalyse im Archiv zwangsläufig flach.
Analyse oder historische Datenrecherche
Die schnelle Analyse kann eigentlich nur mit aktuellen Datenmengen erfolgen, die in den Hauptspeicher passen oder auf dem primären Speichersystem Platz haben. Und wie ein Suchender bei Google nicht alle potenziellen Treffer durchsucht, wird es auch mit diesen Daten sein.
Nach dem Vorsortieren, Filtern, Relevanz bewerten und nicht zuletzt einer Einschätzung der Verlässichkeit der Informationsquelle bleibt nicht mehr viel übrig von den Peta- und Exabytes. Auch wenn die Experton Group ein „dediziertes Research Programm“ für Big Data auflegen will, ein Blick auf den Gartner Hype Cycle lässt den geneigten Interessenten wieder ruhiger atmen.
„Big Data and Extreme Information Processing and Management“ klettert beim Gartner Hype Cycle erst langsam die Technology-Trigger-Rampe hoch. Zwei bis fünf Jahre, so schätzen die Marktforscher, braucht es noch, bis Big Data zu einer Mainstream-Anwendung werden könnte.
Und dass sich Cloud und Big Data treffen und gegenseitig helfen könnten, ist nach dem Hype-Cycle-Diagramm aus dem Juli 2011 ebenfalls unwahrscheinlich. Dort rauschen Cloud Computing und Cloud Platorm gerade auf das Tal der Ernüchterung respektive Enttäuschungen zu.
(ID:2052831)