Die Debatte um souveräne KI hat sich in den letzten Jahren grundlegend gewandelt. Was einst vor allem eine geopolitisch geprägte Diskussion war, spiegelt sich heute zunehmend in konkreten Entscheidungen mit Blick auf die Infrastruktur wider. Unternehmen suchen nach Möglichkeiten, das KI-Potenzial zu nutzen und zugleich die Kontrolle über die Daten zu behalten, die KI antreiben.
In einer KI-getriebenen Umgebung muss sich die Perspektive von einer speicherzentrierten hin zu einer datenorientierten Betrachtung verschieben.
(Bild: Gemini / KI-generiert)
Regierungen fördern nationale Initiativen für souveräne Cloud-Infrastrukturen im großen Maßstab. Organisationen restrukturieren ihre individuellen Datenlandschaften, um die Abhängigkeit von Hyperscalern zu verringern – selbst wenn genau diese Anbieter regionale Angebote zu „souveränen Clouds“ bereitstellen, um der Nachfrage gerecht zu werden. Gleichzeitig steigt die Zahl der Neocloud-Anbieter, während Regulierungsbehörden die grenzüberschreitende Bewegung von Trainingsdaten zunehmend kontrollieren.
Schlüsselprinzipien für Datenhoheit in verteilten KI-Pipelines
Ein wiederkehrendes Muster an Herausforderungen zeigt sich bei Teams, die souveräne KI-Initiativen vorantreiben: Sie stellen fest, dass KI-Pipelines häufig auf Infrastrukturen und Datensätzen basieren, die mehrere Rechtsordnungen überschreiten. Daraus ergeben sich komplexe Fragestellungen bei der Umsetzung souveräner KI-Strategien über Regionen hinweg.
Im Zentrum stehen dabei mehrere zentrale Anforderungen: So soll die juristische Kontrolle sicherstellen, dass sensible Daten und KI-Workloads den jeweils geltenden lokalen Rechtsrahmen unterliegen und keinem extraterritorialen Zugriff ausgesetzt sind. Zugleich zielt geopolitische Resilienz darauf ab, die Abhängigkeit von ausländischer Hyperscale-Infrastruktur für kritische digitale Fähigkeiten zu verringern. Datenschutz und Datensicherheit nehmen ebenfalls eine Schlüsselrolle ein, indem sie den Schutz geistigen Eigentums sowie regulierter Datensätze entlang der KI-Pipelines gewährleisten. Ebenso essenziell ist die Wahrung kultureller und sprachlicher Autonomie, damit Modelle lokale Sprachen, Kontexte und gesellschaftliche Normen adäquat abbilden. Nicht zuletzt soll die wirtschaftliche Wettbewerbsfähigkeit sicherstellen, dass nationale KI-Ökosysteme nicht dauerhaft in Abhängigkeit von externen Plattformen geraten.
Zentrale Fragestellung
Diese Herausforderungen unterscheiden sich je nach Region, von regulatorischen Rahmenbedingungen in Europa bis hin zu nationalen KI-Initiativen in Amerika, dem Nahen Osten sowie Asien. Dennoch führen sie alle auf eine zentrale Fragestellung zurück: Wie lässt sich Datenhoheit in einer Welt gewährleisten, in der KI-Infrastrukturen von Natur aus verteilt sind, ohne neue Datensilos zu schaffen oder bestehende weiter zu fragmentieren?
Auf den ersten Blick scheint die Antwort naheliegend: Sensible Daten verbleiben innerhalb nationaler Grenzen, regionale Cloud-Umgebungen werden genutzt, und eine lokale rechtliche sowie operative Aufsicht wird etabliert. Diese Maßnahmen sind zweifellos essentiell, und Cloud-Anbieter haben erheblich in entsprechende Lösungen investiert. Doch sobald KI ins Spiel kommt, reicht Geografie allein nicht mehr aus.
Elastische, globale KI versus regulatorische Souveränität
KI-Workloads respektieren keine Grenzen. Trainingsdaten können in einem Land entstehen, in einem anderen angereichert werden und schließlich auf GPU-Clustern verarbeitet werden, die dort bereitgestellt werden, wo beschleunigte Rechenkapazität verfügbar ist. Inferenzpipelines skalieren dynamisch über Cloud-Regionen hinweg, und Forschungsteams arbeiten über Rechtsordnungen hinweg zusammen. Die Infrastruktur, die KI unterstützt, ist auf Elastizität und globale Verfügbarkeit ausgelegt, während das im Umkehrschluss nicht auf Anforderungen im Bereich der Souveränität zutrifft.
In diesem Spannungsfeld bewegen sich Organisationen bei der Einführung von KI-Initiativen. Innovationsteams streben nach Zugang zu den leistungsfähigsten verfügbaren Rechenressourcen, während Sicherheitsteams auf klar definierte und durchsetzbare Grenzen drängen. Gleichzeitig fordern Regulierungsbehörden Transparenz und eindeutige Verantwortlichkeiten. Die naheliegende Reaktion besteht häufig darin, dedizierte Umgebungen zu schaffen: souveräne Stacks pro Land, duplizierte Datensätze je Region sowie stark isolierte KI-Zonen, die Flexibilität zugunsten von Kontrolle einschränken und gleichzeitig neue Datensilos entstehen lassen.
Dies funktioniert bis zu einem gewissen Grad, die Nebenwirkungen zeigen sich jedoch schnell: Werden Daten wiederholt kopiert, wird Governance zunehmend reaktiv, während die operative Komplexität spürbar steigt. Mit der Zeit fragmentiert die Datenlandschaft weiter, oft gerade in dem Moment, in dem KI-Initiativen eigentlich eine stärkere Vereinheitlichung erfordern. Das zugrunde liegende Problem ist dabei nicht allein im Standort der Daten begründet, sondern in der grundlegenden Architektur ihrer Verwaltung innerhalb einer siloartigen Systemlandschaft. Genau hier liegt das Problem: Der Versuch, Datenhoheit durch infrastrukturelle Isolation zu erzwingen, führt zwangsläufig zu mehr Fragmentierung statt zu mehr Kontrolle.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Wo traditionelle Architekturen versagen
Traditionelle Speichersysteme binden proprietäre Dateisysteme fest an die jeweilige System-Instanz. Wenn Daten zwischen unterschiedlichen Speichertypen oder Regionen verschoben werden, werden Dateien und ihre Metadaten gemeinsam migriert, mit der Folge, dass neue Kopien entstehen und sich Versionen vervielfachen. Die Verantwortung, diese mit geltenden Richtlinien in Einklang zu halten, liegt dabei häufig bei IT-Teams sowie manuellen Prozessen.
Dieses Modell war so lange tragfähig, wie Daten klar einer einzelnen Anwendung zugeordnet werden konnten. In einer KI-getriebenen Umgebung stößt es jedoch an seine Grenzen: dieselben Datensätze müssen parallel mehrere Anwendungen, Inferenz-Pipelines und agentische Workflows versorgen.
Mit Datenvolumina im Petabyte-Bereich wird die Durchsetzung von Datenhoheit über fragmentierte Silostrukturen hinweg exponentiell komplexer. Die Perspektive muss sich daher von einer speicherzentrierten hin zu einer datenorientierten Betrachtung verschieben, weg von der Verwaltung einzelner Systeme und hin zur Steuerung von Daten über ansonsten inkompatible Systeme hinweg.
In der Praxis ist Datenhoheit hochgradig kontextabhängig. Nicht alle Daten in einer KI-Pipeline unterliegen denselben Anforderungen. Rohdaten von Bürgern müssen beispielsweise in einem bestimmten Land verbleiben, während abgeleitete Datensätze zwischen Ländern bewegt werden dürfen. Anonymisierte Teilmengen können in einem größeren Modelltraining genutzt werden, und Modell-Checkpoints oder Artefakte können wieder anderen Klassifikationen unterliegen.
Entscheidend ist nicht nur, wo die Infrastruktur steht, sondern auch, wie Richtlinien so definiert werden, dass Datensätze nur dort bewegt, repliziert oder persistiert werden, wo es tatsächlich erlaubt ist.
Governance in die Datenebene einbetten
Ein effektiver Ansatz zur Lösung dieser Herausforderungen liegt in einer datenzentrierten Architektur. Dabei werden Dateisystem-Metadaten integriert, während die eigentlichen Daten auf bestehenden Speichersystemen verbleiben. So entfällt die Notwendigkeit, Datensätze vor ihrer Nutzung in neue KI-Repositorien zu kopieren oder mehrfach über unterschiedliche Umgebungen hinweg zu duplizieren. Durch die Abstraktion des Dateisystems von der zugrunde liegenden Infrastruktur entsteht eine einheitliche Datenebene, die On-Prem Umgebungen, verschiedene Cloud-Anbieter sowie Regionen und Speicherlösungen unterschiedlicher Hersteller umfasst.
Benutzer und Anwendungen greifen weiterhin wie gewohnt auf ihre Daten zu, sind jedoch nicht mehr auf die Sicht eines einzelnen Speichersystems beschränkt. Stattdessen arbeiten sie innerhalb eines globalen Namensraums als zentraler Datenebene, der unstrukturierte Daten über unterschiedliche Speicherarten und Standorte hinweg konsolidiert. Diese einheitliche Sicht wird durch eine zentrale Kontrollebene ergänzt, die eine regelbasierte Orchestrierung der Daten ermöglicht und deren Einhaltung kontinuierlich durchsetzt.
Für Benutzer und Anwendungen erscheinen Daten unabhängig von ihrem tatsächlichen Speicherort „lokal“ verfügbar. Gleichzeitig stellen richtlinienbasierte Zielvorgaben sicher, dass Vorgaben zur Souveränität und weitere Compliance-Anforderungen auf granularer Ebene eingehalten werden, ganz ohne Eingriffe in bestehende Anwendungen und ohne die Notwendigkeit zusätzlicher proprietärer Software auf Clients oder Servern.
Vermeidung zusätzlicher Datensilos
Neben klassischen Metadaten kommen auch erweiterte, benutzerdefinierte Metadaten zum Einsatz, die zusätzlichen Kontext liefern. Diese werden automatisiert angewendet und entlang des gesamten Datenlebenszyklus konsistent fortgeführt, auch wenn Daten zwischen unterschiedlichen Speichersystemen bewegt werden. Dadurch sinkt der administrative Aufwand, und das Risiko fehlerhafter oder unvollständiger Klassifizierung wird deutlich reduziert. Gleichzeitig wird vermieden, dass durch neue KI-Initiativen zusätzliche Datensilos entstehen, die Governance und Kontrolle langfristig erschweren.
So können beispielsweise Dateien mit bestimmten Klassifizierungen, beispielsweise „EU-Restricted“, automatisch auf Speichersysteme innerhalb definierter Jurisdiktionen beschränkt werden und bleiben von einer Verarbeitung außerhalb dieser Bereiche ausgeschlossen. Weitere Metadaten können Anforderungen an Verfügbarkeit, Haltbarkeit oder Performance definieren. Während Anwendungen und Benutzer auf Daten im globalen Namensraum zugreifen, stellen diese Regeln sicher, dass Vorgaben zur Souveränität konsequent eingehalten werden.
Floyd Christofferson, VP Product Marketing bei Hammerspace.
(Bild: Hammerspace)
Souveräne KI lässt sich auf einige zentrale Prinzipien reduzieren: Daten verbleiben in der jeweils richtigen Jurisdiktion, Zugriffe sind nachvollziehbar kontrolliert und auditierbar; gleichzeitig bleibt eine hohe Leistungsfähigkeit erhalten, ganz ohne die Entstehung zusätzlicher „Schattenkopien” sensibler Datensätze.
Damit entfällt die Notwendigkeit, zwischen Compliance und Innovation zu wählen oder Infrastrukturen länderspezifisch komplett neu aufzubauen und Daten redundant in isolierten Silos vorzuhalten. Stattdessen wird Governance integraler Bestandteil der Datenebene: Metadaten steuern das Verhalten, und Richtlinien werden kontinuierlich durchgesetzt, ohne die Arbeitsweise von Benutzern und Anwendungen zu beeinträchtigen.
Wenn Datenhoheit auf diese Weise Teil der Datenarchitektur selbst wird und nicht erst nachgelagert als operatives Overlay implementiert wird, stehen Agilität und Kontrolle nicht länger im Widerspruch, sondern werden durch eine gemeinsame Datenebene erstmals gleichzeitig erreichbar.
* Der Autor: Floyd Christofferson, VP Product Marketing, Hammerspace
Aktuelles eBook
Storage für HPC & KI
eBook „Storage für HPC & KI“
(Bild: Storage-Insider)
Speichersysteme für das HPC und für die verschiedenen Disziplinen der KI sind hohen Anforderungen ausgesetzt. Denn sie müssen enorme Datenmengen in kürzester Zeit bereitstellen oder sammeln. Wie können diese Herausforderungen gemeistert werden?
Die Themen im Überblick:
Aktuelle Trends in der Künstlichen Intelligenz
High-Performance Computing – Explosion der Innovationen