Mobile-Menu

KI-fähige Infrastruktur: Objektspeicher Ohne Daten keine KI – der Erfolgsfaktor für Unternehmen

Ein Gastbeitrag von Paul Speciale* 5 min Lesedauer

Anbieter zum Thema

Daten bilden das Fundament der nächsten Generation von KI-Lösungen. Lokale Objektspeicher bieten Unternehmen eine skalierbare, flexible und kosteneffiziente Infrastruktur für KI-Daten, während sie gleichzeitig höchste Cyber-Resilienz über alle Ebenen hinweg gewährleisten, von Neocloud-Anbietern bis hin zu großen Unternehmen.

Infrastrukturentscheidungen treffen zwischen der Skalierbarkeit und Agilität der Public Cloud einerseits und der Kontrolle, Sicherheit und Performance von On-Prem-Objektspeicher andererseits“, bringt es unser Gastautor Paul Speciale von Scality auf den Punkt.(Bild:  Midjourney / KI-generiert)
Infrastrukturentscheidungen treffen zwischen der Skalierbarkeit und Agilität der Public Cloud einerseits und der Kontrolle, Sicherheit und Performance von On-Prem-Objektspeicher andererseits“, bringt es unser Gastautor Paul Speciale von Scality auf den Punkt.
(Bild: Midjourney / KI-generiert)

Der globale Ausbau der Rechenzentrumsinfrastruktur hat strategische Bedeutung erlangt. Weltweit werden umfangreiche Projekte umgesetzt, um den exponentiell steigenden Anforderungen an KI-Rechenleistung gerecht zu werden. Diese Dynamik beschleunigt die Etablierung einer neuen Klasse von Cloud-Anbietern: den Neoclouds.

Laut McKinsey werden bis 2030 weltweit fast 7 Billionen US-Dollar in KI investiert, davon 5,2 Billionen US-Dollar in KI-Processing und 1,5 Billionen US-Dollar in klassische IT-Anwendungen. Unternehmen treiben aktuell die Entwicklung innovativer KI-Anwendungen voran und definieren zugleich strategische Ansätze für die Speicherung und das Management ihrer KI-Daten – mit Blick auf Wirtschaftlichkeit, Zukunftsfähigkeit, Skalierbarkeit und Compliance.

McKinsey betont, dass aufgrund der hohen Marktdynamik derzeit unklar bleibt, ob Unternehmen ihre KI-Investitionen optimal ausbalancieren. Entscheidend ist daher die strategische Frage: Wo und wie werden Unternehmen die Grundlage ihrer KI-Zukunft (ihre Daten) sicher und zukunftsorientiert speichern?

Von Petabytes zu Performance: Speicherstrategien für KI-Anwendungen

Unabhängig vom Einsatzszenario gilt: Jede KI-Anwendung beginnt mit Daten. Sie müssen erfasst, aggregiert und vorbereitet werden, bevor das eigentliche Training starten kann. Je nach KI-Typ variieren dabei die Anforderungen an Datentyp, Volumen und Performance deutlich:

  • Multimodale KI (etwa Computer-Vision, Robotik, Sensorfusion) verarbeitet hochauflösende Bild-, Video-, LiDAR- sowie Radardaten. Die Trainings-Datensätze erreichen rasch Multi-Petabyte-Dimensionen; allein die Datenaufbereitung kann Hunderte Petabytes an Speicher erfordern.
  • Generative KI benötigt für Text-, Bild- oder multimodale Modelle Trainings- beziehungsweise Fine-Tuning-Datensätze von mehreren hundert Gigabyte bis hin zu mehreren hundert Terabyte auf der Basis von Rohdaten im Petabyte-Bereich.
  • Agentic KI orchestriert komplexe Abläufe, mehrere LLM-Aufrufe sowie externe Tools und APIs. Agentic KI erzeugt zwar weniger „Hot Data“, generiert jedoch umfangreiche Archivdaten aus Kontext- und Protokollinformationen.
  • Klassisches Machine Learning & Predictive Analytics arbeitet überwiegend mit strukturierten, tabellarischen Daten im Gigabyte-Bereich bis hin zum unteren Terabyte-Bereich. Durch die Vielzahl paralleler Workloads entstehen dennoch signifikante Speicheranforderungen.

Derzeit setzen Unternehmen überwiegend auf Public-Cloud-Storage oder lokale NAS-/SAN-Infrastrukturen. Beide Optionen bieten spezifische Stärken, verlangen jedoch stets Kompromisse mit Blick auf Kosten, Skalierbarkeit, Performance sowie Datenhoheit.

Die neue Speicherrealität: Public Cloud meets klassische Infrastruktur

Public-Cloud-Storage bietet Unternehmen maximale Flexibilität, geht jedoch mit wachsenden Herausforderungen bei Datenschutz, Sicherheit und Datensouveränität einher. Die Möglichkeit, dass Daten Rechenzentrums- oder Landesgrenzen überschreiten, stellt in Zeiten verschärfter Regulierung ein erhebliches Compliance-Risiko dar. Zudem belasten schwer vorhersehbare Kosten, insbesondere durch Egress-Gebühren, zunehmend die Wirtschaftlichkeit.

Traditionelle NAS- und SAN-Systeme entstammen einer Infrastruktur-Generation, die weder für Cloud- noch für KI-Workloads konzipiert wurde. Ihre begrenzte Skalierbarkeit und Performance führen zu fragmentierten Speicherinseln („Storage-Silos“), die Komplexität erhöhen und gleichzeitig Innovation ausbremsen.

Zukunftsorientierte Unternehmen setzen daher auf Speicherarchitekturen, die speziell für die Anforderungen von KI-Daten entwickelt wurden: skalierbar, performant und dabei souverän.

Daten, Kontrolle, Performance: Wer profitiert von modernen KI-Speicherlösungen?

Weltweit treiben Großunternehmen, von den Fortune 500 bis zu den Global 2000, den Aufbau KI-getriebener Services mit höchster Priorität voran. Viele setzen dabei bewusst auf eine Datenhaltung im eigenen Rechenzentrum, um Kontrolle, Sicherheit und Kosteneffizienz langfristig zu sichern.

Da GPU-Infrastrukturen erhebliche Investitionen erfordern, wird ihre maximale Auslastung zum strategischen Erfolgsfaktor. Die Nähe von Speicher zu Rechenressourcen ist dabei ausschlaggebend für Performance, Energieeffizienz und Gesamtbetriebskosten – ein entscheidender Vorteil von On-Prem-Speicherlösungen.

Parallel entsteht mit den sogenannten Neoclouds eine ganz neue Anbieterklasse. Neoclouds bieten spezialisierte KI-Infrastrukturen mit integrierten GPU- und TPU-Kapazitäten sowie flexiblen, verbrauchsorientierten Preismodellen. Als Plattformen für Hunderte KI-Workloads benötigen Neocloud-Anbieter Speicherarchitekturen der nächsten Generation – hochskalierbar, leistungsstark sowie optimiert für Datenvolumina im Peta- bis Exabyte-Bereich.

Die strategische Wahl für KI-Workloads: On-Prem-Object-Storage im Fokus

Die weit verbreitete Nutzung von Public-Cloud-Objektspeichern wie AWS S3 zeigt eindrucksvoll, wie leistungsfähig das Object-Storage-Paradigma für datenintensive Anwendungen tatsächlich ist. Für KI-Workloads ermöglicht On-Prem-Object-Storage dieselbe Skalierbarkeit, jedoch mit entscheidenden Vorteilen hinsichtlich Kontrolle, Sicherheit sowie Wirtschaftlichkeit.

Lokale Object-Storage-Lösungen bieten volle Datensouveränität, erfüllen Compliance-Vorgaben nach HIPAA, GDPR und FedRAMP und laufen innerhalb der Unternehmens-Firewall. Dadurch behalten Organisationen jederzeit die Hoheit über Standort und Zugriff ihrer Daten.

Darüber hinaus gewährleisten moderne Object-Storage-Systeme durch Unveränderlichkeit (Immutability) und mehrschichtige Cyber-Resilienz höchste Datensicherheit. Schutzmechanismen auf API-, Netzwerk-, Storage-, Administrations- und Betriebssystemebene sowie AWS-kompatibles Object-Locking verhindern unbefugtes oder unbeabsichtigtes Löschen und unterstützen Governance-, Compliance- und Retention-Strategien, die unerlässlich für den Schutz kritischer KI-Daten sind.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Skalierung neu gedacht: technologische Fortschritte für KI-optimierte Speicherarchitekturen

Zwei zentrale Innovationen treiben die Effizienz moderner Object-Storage-Systeme maßgeblich voran:

  • Multi-Dimensional Scaling (MDS): Diese Technologie ermöglicht eine flexible Skalierung von Compute-Leistung, Metadatenverarbeitung sowie Transaktionskapazität, bis hin zur Exabyte-Skalierung über mehrere Rechenzentren hinweg. Und dies ohne Unterbrechung des laufenden Betriebs.
  • Disaggregated Architecture: Durch die Entkopplung von Rechenleistung und Speicherkapazität können Unternehmen die Performance gezielt erweitern, ohne teure zusätzliche Speicherserver bereitstellen zu müssen. Dies stellt einen entscheidenden Fortschritt gegenüber klassischen Systemarchitekturen dar.

Besonders profitieren datenintensive Anwendungen wie medizinische Bildgebung oder KI-Trainingsdatensätze von diesen Architekturen, da hier hohe Metadatenraten oft wichtiger sind als reine Speicherkapazität.

KI-Daten zukunftssicher managen: Strategie, Kontrolle, Performance

Unternehmen, die ihre KI-Strategie gestalten, müssen heute zentrale Infrastrukturentscheidungen treffen zwischen der Skalierbarkeit und Agilität der Public Cloud einerseits und der Kontrolle, Sicherheit und Performance von On-Prem-Objektspeicher andererseits.

In Zeiten globaler Unsicherheiten, von Chipknappheit über regulatorische Auflagen bis hin zu geopolitischen Spannungen, ist eine maßgeschneiderte Investitionsplanung komplexer denn je. Vor diesem Hintergrund wird der strategische Balanceakt zwischen Flexibilität und Souveränität zum entscheidenden Faktor für langfristigen KI-Erfolg.

* Der Autor: Paul Speciale, CMO, Scality

Aktuelles eBook

Storage für HPC & KI

eBook Storage für HPC & KI
eBook „Storage für HPC & KI“
(Bild: Storage-Insider)

Speichersysteme für das HPC und für die verschiedenen Disziplinen der KI sind hohen Anforderungen ausgesetzt. Denn sie müssen enorme Datenmengen in kürzester Zeit bereitstellen oder sammeln. Wie können diese Herausforderungen gemeistert werden?

Die Themen im Überblick:

  • Aktuelle Trends in der Künstlichen Intelligenz
  • High-Performance Computing – Explosion der Innovationen
  • Künstliche Intelligenz – nahezu Echtzeit-Datenverarbeitung

(ID:50610916)