Auch Daten haben eine Art Schwerkraft, die vor allem in Cloud-Zeiten zerstörerisch werden kann. Dann wird schnell die schiere Masse zur Last und nur zur Energie, wie die berühmte Einsteinsche Formel verspricht.
Die Äquivalenz von Masse und Energie ist in riesigen Datenmengen nicht so einfach auszunutzen.
(Bild: S.Hofschlaeger_pixelio.de)
„Daten sind das neue Öl. Daten sind bares Geld. Daten sind der Schmierstoff der Plattformökonomie.“ Solche Statements liest man heute an jeder Online-Portal-Ecke, seien sie nun wissenschaftlich, populär oder populistisch geprägt. Richtig ist: Noch nie konnte (jeder)man(n) so einfach wie heute an Datenmengen gelangen, gegen die die Datensammlungen der Geheimdienste von ehedem „Peanuts“ sind.
Die Menge der mittlerweile digital gespeicherten weltweiten Daten wird schon längst in Zettabyte (eine Zahl mit 21 Nullen) angegeben. So produzieren das Internet der Dinge oder das autonome Fahren beispielsweise Daten um die Wette, und die Datenraffgier der Online-Verkäufer ist ohnehin grenzenlos.
Datengravitation und Schwarzes Loch
Sind die riesigen Datenmengen nun tatsächlich ein (teilweise verborgener) Goldschatz oder doch eher eine Art Sintflut? Man weiß es nicht so genau. Tatsache ist aber, dass Daten zur Klumpenbildung neigen.
Getreu dem bekannten populärökonomischen Lehrsatz „Geld kommt zu Geld“ kommen auch „Daten zu Daten“. Daten folgen offenbar ihren eigenen Gravitationsgesetzen jenseits von Newton und Einstein, und so hat der Software-Entwickler Dave McCrory 2010 in einer launigen Eingebung in einem Blog das Schlagwort der „Data Gravity“, also der Datengravitation, geprägt.
Wo Daten sind, da kommen noch mehr Daten hinzu, die dazu passen könnten – man will ja schließlich „Daten auswerten“ und daraus seine Schlüsse ziehen. Da kann Datenmaterial und immer mehr Datenmaterial nicht schaden, oder?
Und wo sie einmal liegen, liegen sie; denn es ist schwer und teuer, riesige Datenmengen zu bewegen. So kommt AWS etwa mit einem „Schneemobil“ vorgefahren, wenn die Datenmasse im Exabyte-Bereich sich einfach nicht mehr über noch so leistungsfähige Glasfaserverbindungen in adäquater Zeit und wirtschaftlich zu rechtfertigen in die Cloud transferieren lässt. Beim AWS-Datenübertragungsservice können Kunden bis zu 100 Petabyte pro Snowmobile übertragen. Dies entspricht einem 14 Meter langen robusten Transportcontainer, der von einem Sattelschlepper gezogen wird.
Wo Datenmaterial zur Auswertung bereit liegt, müssen aber auch Auswertungsmechanismen vorhanden sein, sprich: datenanalytische Applikationen. Insofern klumpen nicht nur immer mehr Daten zusammen, die auf Auswertung warten, sondern sie verklumpen auch mit Applikationen, die sie auswerten sollen.
Die hier wirkende Datenschwerkraft kann eine schwere Last werden, unter Umständen endet sie auch in einem Schwarzen Loch, um die astrophysikalische Metapher der „Data Gravity“ einmal zu Ende zu denken.
Daten und die „lange Leitung“
In der heutigen IT-Globalisierung namens Cloud ist die Datengravitation ein großes Problem. Die schiere Menge der gesammelten Daten führt zu Identifizierungs- und Lokalisierungsproblemen, und selbst, wenn man mehr oder weniger all seine Daten „im Griff hat“, das heißt, weiß, welche Inhalte sich an welchen Orten befinden, ist das Zusammenführen zur Analyseoperation zumindest insofern ein Problem, als die Leitungen dabei ganz leicht verstopfen können.
Technischer ausgedrückt: Es gibt Latenzprobleme. Die Daten sind schlicht nicht ausreichend schnell in genügender Menge zur Stelle, die „lange Leitung“ beeinträchtigt empfindlich den Analyseprozess.
Auch sind Daten nicht gleich Daten. Der Wert von Daten ist höchst unterschiedlich, auch davon können Geheimdienstler aller Couleur ein Lied singen. Sehr vieles ist nur „Geschwätz“, manchmal taucht zwischen dem Geschwätz dann ein Goldklumpen auf.
Um den zu identifizieren, braucht es allerdings ein „Bingo-Programm“ an der richtigen Stelle. Ernsthafter gesprochen: Datensammlungen ohne eine gut durchdachte Klassifizierung der Daten sind kaum etwas wert.
Aber wie sichert man den latenzoptimierten Zugriff auf die einzelnen Datenklassen in einer Multi-Cloud-Umgebung? Das ist jedenfalls nicht einfach, weil zur richtigen Zuordnung der Datenklassen immer wieder Daten hin- und hergeschoben (migriert) werden müssen. Und richtig, dabei kommt immer wieder die „lange Leitung“, sprich die Latenz, ins böse Spiel.
Vorsicht vor Datenvöllerei
Ist eine Hybrid-Cloud aus lokalen Rechenzentrumsressourcen und weltumspannenden „Wolkenspeichern“ die Lösung? Vielleicht!
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Unter Umständen ist es aber sinnvoller, die Analyseinstrumente ebenfalls in die Cloud zu transferieren. Dann hat man womöglich die Latenz besser im Griff, handelt sich aber damit unternehmensgefährdende Sicherheitsprobleme ein. Letztere schweben im Grunde über allen Datensammlungs- und Datenanalyselösungen, nicht zu reden von Fragen des Datenschutzes.
Es erscheint insofern auf jeden Fall ratsam, schon bei der Sammlung der Daten zum einen Augenmaß bezüglich der Menge walten zu lassen und zum anderen einen hohen Anspruch in Sachen Qualität anzulegen. Vielleicht kann ein berühmtes Prinzip aus der mittelalterlichen Philosophie dabei Hilfestellung leisten, das so genannte Rasiermesser von Herrn Occam: „Entia non sunt multiplicanda sine necessitate.“ Sehr frei ins Deutsche übersetzt: „Datenvöllerei verdirbt den Magen.“ In der Datenschutzgesetzgebung ist das Prinzip auch als Datensparsamkeit bekannt. Und auf dem Feld der Data Gravity schützt es unter Umständen vor dem Sturz ins Schwarze Loch.