Bei Scality sehen wir 2026 als das Jahr, in dem Leistung, Compliance und Innovation zusammenkommen. Für IT-Führungskräfte und -Architekten signalisiert dies einen Paradigmenwechsel: weg von der reinen Beschleunigung von Systemen, hin zu nachweislich kontrollierbaren Architekturen, in denen Transparenz und Steuerbarkeit die neuen Leistungskennzahlen sind.
Paul Speciale von Scality erläutert im Gastbeitrag sieben Infrastruktur-Trends, die er fürs Jahr 2026 erwartet.
(Bild: Midjourney / KI-generiert)
Mit Blick auf die Infrastrukturlandschaft der Daten sehen wir 2026 folgende Trends:
1. Die Tokenökonomie der KI macht Speicher zur nächsten Quelle von Effizienzgewinnen
Generative KI wird jedem produzierten KI-Token einen quantifizierbaren Wert zuordnen. 2026 wird die Kennzahl „Kosten pro Token“ zu einer zentralen Planungsmetrik, die Unternehmen zwingt, Datenkosten auf detaillierter Ebene zu erfassen. Hierdurch lassen sich verborgene Ineffizienzen (Latenzen, Datenwachstum und suboptimales Tiering) identifizieren, die unmittelbare Auswirkungen auf die Modellperformance sowie den ROI haben.
Unternehmen werden eine differenzierte Sicht darauf benötigen, wie Daten genutzt werden, um Speicherverhalten mit KI-Ergebnissen zu verknüpfen. Automatisiertes Tiering, Predictive Caching sowie Echtzeit-Analysen werden zu Standardwerkzeugen der Optimierung.
Für Speicherarchitekten markiert 2026 einen kulturellen Wendepunkt. Wirtschaftliche Modelle enden nicht mehr bei Compute- oder Netzwerkressourcen. Führend werden Organisationen sein, die jedes verarbeitete Token mit dem Verhalten der zugrunde liegenden Daten verbinden und Speicher vom Kostenfaktor zum steuerbaren Werkzeug für KI-Effizienz machen.
Während diese Effizienzgewinne die Infrastruktur neu gestalten, wird eine neue Klasse von Dienstleistern entstehen, die den unersättlichen Datenbedarf von KI bedienen.
2. Neoclouds werden Datenaggregation auf GPU-Niveau ermöglichen
Eine neue Generation GPU-optimierter Serviceanbieter (sogenannte „Neoclouds“) wird entstehen. Ihr Wettbewerbsvorteil liegt nicht in der reinen Compute-Dichte, sondern darin, wie intelligent Informationen bewegt werden.
Um Tausende von GPUs zu versorgen, werden Neocloud-Architekturen ein dreistufiges Speicherparadigma einführen:
ultraschnellen NVMe-Layer für Trainingsdaten, Caching sowie Zwischenergebnisse,
massiv skalierbaren Objektspeicher-Layer für Datensätze, Checkpoints und Langzeitaufbewahrung, der aktive Datensammlungen für Wiederverwendung und kontinuierliche Modelloptimierung bereitstellt,
Deep Cold Storage für persistente Daten und Erkenntnisse, die für Retraining, Datenherkunft (Lineage) oder Compliance langfristig aufbewahrt werden müssen.
Die Verbindung erfolgt über intelligente Mobilitätstechnologien für Daten, die Informationen automatisch zwischen Ebenen verschieben. Ein globaler Namespace vereinheitlicht die Ebenen und gewährleistet konsistenten Zugriff, selbst über Regionen und Cluster hinweg.
Im Zeitalter der Neoclouds wird der Wettbewerbsvorteil in der Daten-Choreografie liegen, also in der Fähigkeit, Daten exakt im Takt des Trainings vorzubereiten, zu verschieben und zu bereinigen.
2026 wird die Fähigkeit, kontinuierliche Datenbewegungen zu orchestrieren, den Erfolg führender Anbieter definieren. Rohinfrastruktur allein reicht jedoch nicht: Entscheidend ist letztlich, wie Organisationen Daten sammeln, kuratieren und kontrollieren.
3. Datenpipelines werden Modelle als echten Wettbewerbsvorteil ablösen
Sobald Foundation-Models breit verfügbar sind, verlieren sie ihr Alleinstellungsmerkmal. Die echte Differenzierung liegt in privaten Datensammlungen sowie datengetriebenen Pipelines, insbesondere in Bezug auf Relevanz, Qualität, Aktualität sowie Lineage.
2026 werden ernsthafte KI-Organisationen Datenvorbereitung nicht als Projekt behandeln, sondern als kontinuierliches, gesteuertes System, das umfasst:
kontinuierliche Datenaufnahme aus vielen Quellen,
Labeling und Enrichment,
Transformation und Normalisierung,
Speicherung, Versionierung und kontrollierten Zugriff.
Jedes Dataset (und jede Variante) muss nachvollziehbar und jederzeit abrufbar sein. Wer es erstellt hat, welche Systeme es verändert haben, wie es sich entwickelt hat und auch, welche Modelle es genutzt haben, wird zum verpflichtenden Kontext.
Objektspeicher bildet den Mittelpunkt dieser Architektur und koppelt Exabyte-skalierbare Speicherung mit flexiblen Metadaten und Versionierung. Darüber hinaus müssen Metadaten-Dienste umfassende Herkunftsinformationen der Daten und Richtlinien abbilden – einschließlich Ersteller, Transformationen, Freigaben, Nutzung sowie Aufbewahrungsvorgaben. AI-Governance, Auditierbarkeit und Sicherheit hängen direkt von diesem Stack ab. Der entscheidende Knackpunkt: 2026 wird nicht die Modellkomplexität zählen, sondern vielmehr die Fähigkeit, Integrität, Lineage und Kontrolle der Daten nachzuweisen.
Die Verwaltung des Datenlebenszyklus in großem Maßstab erfordert Orchestrierung. Hier kommt Kubernetes ins Spiel.
4. Kubernetes wird zum Betriebssystem der KI-Dateninfrastruktur
Kubernetes hat sich weit über seine Rolle als Stateless-Container-Orchestrator hinaus entwickelt. 2026 wird Kubernetes als zentrales Kontrollzentrum fungieren, in dem Compute, Storage und Data-Governance zusammengeführt sind.
Heute laufen Datenbanken, Message-Queues und AI-Feature-Stores zunehmend als Stateful Services in Kubernetes-Clustern. Das stellt ganz neue Anforderungen an Speicher:
konsistente, persistente Volumes bei dynamischer Skalierung,
anwendungsbewusste Snapshots zur Sicherung der Transaktionsintegrität,
Elastizität, die mit Compute-Skalierung synchronisiert ist.
Objektspeicher liefert die robuste Grundlage. Über CSI-Driver sowie Operatoren lässt er sich in Cluster integrieren und automatisiert Provisioning, Backup und Recovery.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
2026 wird Kubernetes als De-facto-„Betriebssystem“ für zustandsbehaftete KI-Dateninfrastrukturen fungieren und die Grenze zwischen Infrastruktur und Datendiensten zu einer einzigen operativen Domäne auflösen. Unternehmen müssen zudem in der Lage sein zu messen, ob die Orchestrierung den prognostizierten Wert liefert.
5. Speicherleistung wird über verbrauchsbasierte SLA-Metriken gemessen
Die Ära von IOPS, Durchsatz und Latenz geht zu Ende. KI-Workloads, Regulatorik und Nachhaltigkeit erfordern messbare, Outcome-basierte Kennzahlen. 2026 wird Erfolg durch verbrauchsbasierte SLA-Metriken definiert, unter anderem:
Zeit bis zur vollständigen Wiederherstellung nach Cybervorfällen,
GPU-Auslastung pro Speicher-Dollar,
Energieverbrauch pro gespeichertem Terabyte.
Der Fokus verschiebt sich von Rohleistung hin zu messbaren, wirtschaftlich relevanten Ergebnissen. Speicheranbieter müssen Telemetrie, Observability und automatisiertes Reporting nativ integrieren. Leistungskennzahlen werden selbst zum Nachweis von Intelligenz, Effizienz und Governance.
6. Datenfreiheit wird zu einer rechtlichen und wettbewerblichen Pflicht
Der EU Data Act etabliert Datenfreiheit als gesetzliche und operative Verpflichtung. Vendor-Silos verlieren ihre Relevanz. Unternehmen verlangen offene Datenverträge, interoperable APIs sowie standardisierte Metadaten, um Daten nahtlos zu bewegen.
Speicherplattformen müssen native Replikation, Policy-basierte Datenmobilität und Cross-Cloud-Federation bereitstellen. Ein globaler Namespace gewährleistet Objektidentität, Kontext und konsistenten Zugriff. Versionierung und Lifecycle-Automatisierung sichern Datenintegrität und verhindern Verlust.
2026 wird die Marktführerschaft im Bereich Cloud-Storage daran gemessen, wie effizient Unternehmen Daten frei, sicher und kontrolliert über heterogene Infrastrukturen bewegen können.
7. Cyber-Resilienz wird zum regulierten, auditierbaren Vertrauensstandard
2026 wird Cyber-Resilienz eine Voraussetzung mit Blick auf Geschäftsfähigkeit. Regulatorische Rahmenwerke wie etwa SEC-Cybersecurity Rules sowie NIS-2 verlangen nachweisbare Wiederherstellbarkeit, das über reines Reporting hinausgeht.
Die Speicherinfrastruktur bildet das Herz dieser Anforderungen. Immutable Storage, kryptographisch verifizierbare Retention sowie automatisierte Recovery-Validierung werden verpflichtend. Features wie Object-Lock, Versioning und manipulationssichere Logs entwickeln sich zum Standard. Cyber-Resilienz entscheidet darüber, welche Unternehmen tatsächlich versichert, Compliance-konform und vertrauenswürdig bleiben.
Warum Verantwortlichkeit 2026 das verbindende Prinzip der Dateninfrastruktur darstellt
Ein roter Faden zieht sich durch alle Trends: Verantwortlichkeit. Ob Tokenökonomie, datengetriebene Pipelines oder nachweisbare Cyber-Resilienz, 2026 werden diejenigen belohnt, die Integrität, Effizienz und Vertrauenswürdigkeit ihrer Datenoperationen nachweislich belegen können.
Speicher entwickelt sich vom stillen Partner zum zentralen Kontrollpunkt für Vertrauen, Governance und operative Effizienz. Verantwortlichkeit wird zum entscheidenden Maßstab für Fortschritt. Und Speicher ist der Ort, an dem sie messbar wird.
* Der Autor: Paul Speciale, CMO, Scality
Aktuelles eBook
Storage für HPC & KI
eBook „Storage für HPC & KI“
(Bild: Storage-Insider)
Speichersysteme für das HPC und für die verschiedenen Disziplinen der KI sind hohen Anforderungen ausgesetzt. Denn sie müssen enorme Datenmengen in kürzester Zeit bereitstellen oder sammeln. Wie können diese Herausforderungen gemeistert werden?
Die Themen im Überblick:
Aktuelle Trends in der Künstlichen Intelligenz
High-Performance Computing – Explosion der Innovationen