In der IT-Branche scheint der Arbeitsspeicher oft wie ein Relikt vergangener Tage – im Vergleich zur rasanten Entwicklung bei Prozessoren (CPU/GPU) und Storage-Komponenten verlief die Innovation bei Speichern eher evolutionär als revolutionär. Was in der Vergangenheit funktionierte, stößt heute jedoch an Grenzen.
Um die Datenflut zu zähmen und speicherintensive HPC- und KI-Anwendungen zu betreiben, reichen klassische Speicherlösungen nicht aus.
(Bild: Midjourney / KI-generiert)
Die Rechenleistung moderner Prozessoren wächst deutlich schneller als die Bandbreite der Speicherzugriffe. Die Folge: Der Prozessor wartet auf Daten aus dem RAM – und wertvolle Rechenzyklen gehen verloren.
Die Memory-Wall wird zum Flaschenhals
Das Problem verschärft sich durch die zunehmende Verbreitung speicherintensiver Anwendungen wie etwa High-Performance-Computing (HPC) sowie künstlicher Intelligenz (KI). Diese Workloads treiben die bestehende Speicherarchitektur an die Grenzen ihrer Leistung und Effizienz.
„Neue Speichertechnologien entstehen durch das explosionsartige Wachstum in Bereichen wie KI, Machine-Learning, Big-Data-Analytics, Wissenschaftlichem Rechnen sowie hyperskalierbarer Cloud-Rechenzentren“, so JB Baker, VP Marketing & Product Management bei ScaleFlux. „DRAM und NAND stoßen bei Skalierung, Geschwindigkeit und Dichte an ihre physikalischen und wirtschaftlichen Grenzen – und bremsen damit moderne Anwendungen aus.“
Neue Anforderungen: Bandbreite, Kapazität, Energieeffizienz
Insbesondere KI-Anwendungen offenbaren die Schwächen klassischer Speicherlösungen: Zu geringe Bandbreite, hohe Latenzen, mangelnde Skalierbarkeit sowie unzureichender Energieeinsatz.
„Wir nähern uns dem physikalischen und ökonomischen Limit traditioneller Speichertechnologien – neue Architekturen sind daher unausweichlich“, so Baker weiter. Auch David Norfolk von Bloor Research sieht diesen Trend, merkt aber an: „Die KI-Welle treibt den Markt – aber auch der Wunsch der Hersteller, margenstarke Innovationen zu vermarkten. Der echte Innovationsdruck kommt zunehmend auch durch Anforderungen wie Energieeffizienz, Hitzereduktion sowie Zuverlässigkeit.“
Speichern unter regulatorischem Druck
Speicheranforderungen ergeben sich jedoch nicht nur aus der Technik – auch rechtliche Vorgaben spielen eine besondere Rolle. Etwa dann, wenn Sensordaten als Beweismittel nach einem durch KI verursachten Vorfall dienen sollen. „Es ist derzeit nicht klar definiert, wie viele Rohdaten von Sensoren für KI-Entscheidungen nötig sind – oder wie lange diese Daten gespeichert werden müssen“, erklärt Martin Kunze, CMO, Cerabyte. „Unternehmen mussten bereits juristische Konsequenzen tragen, weil sie nicht ausreichend Daten zur Rekonstruktion eines Vorfalls vorgehalten hatten.“
Kunze warnt zudem vor einer drohenden Angebotslücke: „Analysten erwarten, dass konventionelle Speichertechnologien in naher Zukunft nur noch etwa 50 Prozent des Bedarfs abdecken können. Daraus ergibt sich ein Risiko für KI-Investitionen, das bisher unterschätzt wird.“
Speicher-Tiering bleibt zentral
Die Vision einer universellen Speicherlösung, welche schnelle Verfügbarkeit und Persistenz kombiniert, klingt verlockend – ist aber technologisch noch Jahre entfernt. In der Zwischenzeit bleibt ein mehrstufiges Speichermodell (Tiering) die realistische Strategie.
„Universeller Speicher wie PCM oder ULTRARAM verspricht DRAM-ähnliche Geschwindigkeit und Persistenz, kämpft allerdings mit Fertigungskomplexität, hohen Kosten sowie Skalierungsproblemen“, so Arthur Sainio und Raghu Kulkarni, Co-Chairs der Persistent Memory SIG bei SNIA. „Tiered-Architekturen bleiben mittelfristig dominant. Erst nach 2030 könnten universelle Speicher wirtschaftlich werden.“ Baker ergänzt: „Die Lücke zwischen DRAM-Geschwindigkeit und der Latenz persistenter Speicher ist noch zu groß, um sie in einem einzigen Speicherlayer zu überbrücken.“
KI verändert auch das Verständnis der Datenklassifizierung im Speicher. Die Grenzen der klassischen Einteilung (hot, warm, cold) verschwimmen zunehmend.
„KI-Anwendungen müssen regelmäßig auf kalte Daten zugreifen – etwa für Trainingszwecke, die Anomalie-Erkennung oder auch forensische Analysen“, so Kunze. „Daten wandern dynamisch zwischen den Tiers – oft mehrfach täglich.“ Diese Dynamik erfordert flexiblere Speicherstrukturen – und die Akzeptanz, dass nicht alle Innovationen auf Geschwindigkeit abzielen müssen. Wie Erfane Arwani, CEO von Biomemory, verdeutlicht: „DNA-Storage ist nicht schnell, aber extrem dicht und langlebig – ideal für KI-Modelle und Massendaten, die selten gelesen werden.“
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Persistent Memory: Brückentechnologie mit Hürden
Technologien wie Persistent Memory (PMEM) sollen die Lücke zwischen Storage und Memory schließen. Doch Produkte wie Intel Optane zeigen, wie schwierig es ist, sich in der Praxis zu etablieren.
„Optane war zu teuer im Vergleich zu NAND und langsamer als DRAM – ein ungünstiger Kompromiss“, so Joseph Lynn, VP Operations, Tarmin. „Zudem war die Anpassung der Software aufwändig – viele Anwendungen konnten die Vorteile nicht nutzen.“ Auch Baker nennt Gründe für die zögerliche Akzeptanz: „Hohe Kosten, lange Latenzen sowie geringe Durchsatzraten machen PMEM derzeit wirtschaftlich wenig attraktiv für sensible Workloads.“ Nichtsdestotrotz offenbaren Technologien wie MRAM, ReRAM oder auch CXL-basierte Speicherlösungen vielversprechende Ansätze – etwa durch geringe Stand-by-Leistung, Analog-Rechenfunktionen sowie DRAM-ähnliche Performance für Caching und Checkpointing im HPC-Bereich.
Neue Architektur? Nein – allerdings mehr Vielfalt
Ein Paradigmenwechsel bei Server-Architekturen bleibt aus. General-Purpose-Architekturen mit CPU/GPU bestehen als die dominierende Basis – gerade auch im KI-Zeitalter. Punktuelle Lösungen – etwa Computational RAM (CRAM), bei dem Berechnungen direkt im Speicher erfolgen – bleiben eine Nischenerscheinung. „CRAM hat theoretische Vorteile, ist aber kaum programmierbar und daher ungeeignet für generalisierte HPC-Szenarien“, so Baker. Wichtiger sind skalierbare und dichte Speichertechnologien, die bestehende Architekturen besser ausnutzen – etwa durch 3D-DRAM/HBM3 für On-Package-AI-Training, CXL zur flexiblen, geteilten Speichererweiterung sowie Keramikspeicher zur Entlastung teurer HDDs im Cold-Storage-Segment. Sainio und Kulkarni betonen: „Ein hybrider Ansatz ist entscheidend, um Kapazität, Geschwindigkeit und Flexibilität in Einklang zu bringen.“
Aufstrebende Technologien zur Optimierung von Speicherinvestitionen
Neue Technologien versprechen, Investitionen in bestehende Speicherlösungen zu maximieren, was angesichts des Bedarfs eines Tiering-Ansatzes für moderne Workloads von besonderer Bedeutung ist.
Kunze führt ein Beispiel an: „Aufstrebende Technologien wie etwa keramischer Speicher können teuren, leistungsstarken Speicher wie Festplatten, die heutzutage zur Speicherung von Kalt-Daten verwendet werden, freisetzen und so für eine effizientere Nutzung sorgen.“
Zukunftsweisende Speichertechnologien versprechen, das Caching sowie den Zugriff auf Daten zu verbessern, die auf traditionellen Speichermedien (Flash, Festplatten) gespeichert sind.
„Fortschrittliche Caching-Strategien, die auf schnelleren Speichertypen wie HBM oder DRAM basieren, können den Zugriff auf heiße Daten erheblich beschleunigen und die Leistung bestehender Speichersysteme insgesamt verbessern. Die Nutzung von persistentem Speicher zur Beschleunigung von Metadaten oder zur Implementierung von Caching-Schichten wird die Effizienz des Speichers weiter steigern, ohne dass dabei die Architektur grundlegend umgestaltet werden müsste“, so Baker.
Obwohl Hardware oft im Mittelpunkt steht, ist Software für die Bereitstellung und Verwaltung von Daten-Tiers unerlässlich. Wichtig ist dabei, dass Software den Betrieb vereinfacht und mit den vorhandenen Gegebenheiten arbeitet, anstatt Systeme grundlegend zu verändern.
Dies ist eine wertvolle Einsicht, die mit Blick auf Intel Optane gewonnen werden konnte, wie Lynn erläutert: „Ein wesentlicher Stolperstein für Optane war die langsame Anpassung des Software-Ökosystems. Während Optane-DIMMs den Speicher theoretisch transparent zum Betriebssystem erweiterten, gestaltete es sich in der Praxis komplex und zeitaufwändig, Datenbanken und Dateisysteme zu optimieren, um die einzigartigen Persistenz- und Leistungsmerkmale vollständig zu nutzen. Dies verhinderte eine weitreichende und effektive Nutzung.“
Software ist entscheidend für den Erfolg jeder Technologie – insbesondere in einer Zukunft, in der Ressourcen effizient über verschiedene Plattformen hinweg kombiniert werden müssen.
„Software optimiert Workloads über CPUs, GPUs, TPUs und CRAM, indem sie Ressourcen verwaltet, Aufgaben plant und insgesamt die Speichernutzung verbessert. Tools wie Kubernetes und TensorFlow sorgen für eine effiziente Hardware-Nutzung, während zukünftige Innovationen in der KI-gesteuerten Orchestrierung, einheitliche APIs und Echtzeit-Monitoring die Leistung und Energieeffizienz über heterogene Plattformen hinweg weiter steigern werden“, so Sainio und Kulkarni.
Hürden bei der Einführung
Obwohl die KI-Explosion die Einführung aufstrebender Speichertechnologien nahezu unausweichlich erscheinen lässt, bestehen weiter noch viele Risiken, insbesondere im Hinblick auf Investitionen in bestehende Speichertechnologien. Die Nachfrage nach neuen Technologien kann durch das begrenzt werden, was derzeit bereits funktioniert.
Eine allgemein ablehnende Haltung gegenüber neuen Technologien ist laut Norfolk zugleich die größte Hürde für deren Einführung: „Das Ausmaß der Legacy-Technologie, die nach wie vor in vielen Anwendungen zum Einsatz kommt und immer noch ‚gut genug‘ funktioniert, sowie das allgemeine Misstrauen gegenüber aufstrebenden Technologien stellen Herausforderungen dar – es sei denn, es gibt keine technische Alternative.“
Künftige Technologien müssen darüber hinaus nachweislich besser sein als die derzeit verfügbaren, um eine breite Akzeptanz zu erreichen. „Neue Speichertechnologien müssen nicht nur leistungsfähiger sein, sondern auch akzeptable Kostenstrukturen im Vergleich zu DRAM oder NAND bieten, um eine breite Einführung überhaupt zu ermöglichen“, so Baker.
Das Versäumnis, in aufstrebende Technologien zu investieren, birgt allerdings ein ganz eigenes Risiko. „Ohne Investitionen in neu skalierbare Technologien könnten Milliardeninvestitionen im Bereich KI aufgrund fehlender Speicher-Ressourcen vergeudet werden. Dieses drohende Szenario sollte in der KI und in der Investoren-Community thematisiert werden.“
Auf dem Weg in die Speicherzukunft
Vor dem Hintergrund dieser vielschichtigen Warnungen verschärfen die Anforderungen anspruchsvoller Computing-Workflows stetig das Memory-Wall-Problem und erhöhen damit den Bedarf nach neuartigen Lösungen. Aufstrebende Speichertechnologien sind heute notwendiger denn je, und ihre breitere Akzeptanz ist daher nur noch eine Frage der Zeit.
Optimierungen in Skalierbarkeit und Dichte müssen Prioritäten für jede neue Technologie darstellen, die erfolgreich die Memory-Wall-Herausforderung angehen will. Zum Glück sind die Bausteine dieser technologischen Fortschritte bereits vorhanden.
„Erfolge bei CXL-basiertem Speicher sowie Racetrack-Speicher könnten die Branche revolutionieren. CXL wird eine skalierbare, latenzarme Integration von persistentem Speicher ermöglichen, während Racetrack-Speicher ultrahohe Dichte, optimierte Geschwindigkeiten sowie Energieeffizienz bietet”, so Sainio und Kulkarni.
Entscheidend ist es, darüber nachzudenken, wie Daten genutzt werden, um die Zukunft aufstrebender Speichertechnologien wirklich zu verstehen, wie Kunze erklärt: „Es wird ‚heißen Speicher‘ und ‚weniger heißen Speicher‘ geben. Die bisherige, grobe Unterscheidung zwischen ,heißem‘ und ,kaltem‘ Speicher wird verschwinden. Stattdessen werden Daten künftig nach dem tatsächlichen Bedarf ihrer Verfügbarkeit klassifiziert.“
Die Zukunft der Datenspeicherung wird vermutlich auf mehreren Technologien basieren, wobei Tiering zum Einsatz kommen wird, um jeweils unterschiedliche Anforderungen zu verschiedenen Zeitpunkten innerhalb eines Systems zu erfüllen. Das bedeutet nicht nur den Einsatz aufstrebender, neuer Speichertechnologien, sondern auch die kontinuierliche Weiterentwicklung der Grenzen dessen, was die heutige Technologie bereits zu bieten hat.
„Wir gehen davon aus, dass es künftig vermehrt Varianten mit Blick auf persistenten und flüchtigen Speicher geben wird. Diese werden vor allem auf DDR-Zellen (Double Data Rate) basieren, aber auch NAND-Zellen könnten eine Rolle spielen“, so Baker. „Der DDR-basierte Speicher wird darauf abzielen, eine geringere Leistung und einen niedrigeren Energieverbrauch im Vergleich zu DRAM zu bieten, während er gleichzeitig kostengünstiger als Standard-DRAM ist. Er wird sich irgendwo zwischen DRAM und NAND in der Compute-Hierarchie positionieren. Die Innovationen bei NAND-Speicher werden darauf abzielen, die Bandbreite innerhalb der gesamten Computing-Hierarchie zu erhöhen, um den Anforderungen von KI und In-Memory-Datenbanken gerecht zu werden.“
Nur was sich ändert, bleibt
Wer auf neue, aufstrebende Speichertechnologien hofft, die in naher Zukunft standardisiert sein werden, wird wahrscheinlich eine Enttäuschung erleben. Mittelfristig wird die traditionelle Tiered-Memory-Architecture bestehen bleiben und schrittweise Verbesserungen erleben, gerade mit Blick auf Geschwindigkeit und Kapazität.
Der stetig wachsende Bedarf an KI- und HPC-Workloads führt zugleich dazu, dass Leistungsengpässe in den bestehenden Speichersystemen dringend überwunden werden müssen. Vielfältige Herausforderungen (hohe Kosten, begrenzte Softwareunterstützung, allgemeiner Widerstand gegen technologische Veränderungen) verlangsamen den Durchbruch aufstrebender Speichertechnologien.
Doch eines steht fest: Veränderung ist unvermeidlich und erforderlich. Die Zukunft der Datenspeicherung wird von innovativen Technologien geprägt sein, die den Anforderungen der kommenden Ära in einer datengetriebenen Welt gerecht werden können.
* Die Autorin: Federica Monsone, CEO, A3 Communications
Aktuelles eBook
Storage-Software als Effizienzbooster
eBook „Storage-Software als Effizienzbooster“
(Bild: Storage-Insider)
Mit der geeigneten Storage-Software kann sich ein Unternehmen einen Effizienzbooster ins Haus holen oder in der Cloud abonnieren. Dieser Booster steigert nicht nur die Performance der geschäftskritischen Anwendungen, sondern optimiert auch die Kosten der bereits installierten Speichersysteme.
Die Themen im Überblick:
Herausforderungen eines modernen Speichersystems
Methoden und Technologien effizienter Speichersysteme
Effizienter Speicher mit Pure Storage, AWS, Cohesity und Dell