Die durch rasche Zunahme disaggregierter Datenmengen oder schlechte Integration der Komponenten ausgelöste Plattform-Entropie muss nach Ansicht von Tintri dringend bekämpft werden, um die Storage-Systeme fit für KI-Anforderungen zu machen. Die Lösung: autonome AIOps-Systeme.
Die Plattform-Entropie moderner Datenverwaltungssysteme bedroht die Effizienz künftiger KI-Anwendungen. Autonome AIOps-Systeme bieten eine Lösung, indem sie Ordnung ins Chaos bringen, disaggregierte Daten integrieren und Storage-Systeme fit für die Anforderungen der Zukunft machen.
(Bild: Midjourney / KI-generiert)
Die heutigen Systeme für Datenmanagement und Storage stoßen nach Ansicht Phil Trickovics, Senior Vice President bei Tintri, schon längst an ihre Grenzen: „Die CPU-Leistung lässt sich nicht mehr erhöhen, Technologien wie GPUs und DPUs sind lediglich Notbehelfe, um die CPU zu entlasten. Der Energieverbrauch muss dringend verringert werden, die Transaktionskosten pro Workload werden kaum berücksichtigt, die gewohnte Drei-Ebenen-IT-Architektur ist nicht mehr zeitgemäß.“
Nach Trickovics Ansicht nehmen Komplexität und Ineffizienz im Datenmanagement schleichend zu, so dass „der Begriff ‚Plattform-Entropie‘ angebracht ist, also das Gegenteil von Ordnung und Effizienz“. Entropie ist ein physikalisches Prinzip, das die graduelle Abnahme von höherer Ordnung beschreibt, vor allem auf der Ebene der Energie. Das Endstadium dieser Entropie ist der sogenannte „Wärmetod“: Jedwede höhere Form von Energie wie Öl, Gas und Kohle ist verbrannt, so dass nur noch Wärme übrigbleibt. (Das klingt zwar nach Copacabana, aber warum liegt dann die Temperatur des Alls bei minus 273 Grad Kelvin?)
Virtualisierte Architekturen
Aber nicht nur schlecht oder gar nicht integrierte Systeme und Applikationen tragen dazu bei, sondern auch die Zunahme von parallel betriebenen VMs, Hypervisoren und Container-Clustern, wie Thomas Bartz, Systemingenieur bei Tintri, erläutert. „Diese Managementstrukturen werden von einer Vielzahl unterschiedlicher Storage-Anbieter mehr schlecht als recht unterstützt.“ Denn es ist nach Ansicht von Phil Trickovic bereits jetzt zu erkennen, dass die Data Lakes für aktuelle und künftige KI-Modelle (LLMs) von knapp zwei Milliarden Parametern mehrere Exabytes an Daten umfassen müssen. Der Haken dabei: Die meisten CPUs, GPUs und so weiter befinden sich meist in einem Wartezustand, in dem sie zwar Energie verbrauchen, aber untätig auf die nächste Anforderung warten.
Es sei daher, so Bartz, höchste Zeit, mit der Ineffizienz aufzuräumen, parallele Strukturen zu konsolidieren und AIOps für autonome Storage-Systeme einzuführen. Nur AIOps und Echtzeit-Analytik für intelligentes Datenmanagement reagierten schnell genug, um ein System, das verschiedene Betriebsmodelle wie On-Prem und Cloud integriert, in einem effizienten Zustand zu erhalten – oder es dorthin zu bringen.
Maßnahmen
Um Plattform-Entropie zu bekämpfen, sei es notwendig, Automation und prädiktive Analytik einzuführen. Wenn es um KI-Umgebungen geht, so ist die autonome Optimierung von Echtzeit-Workloads von zentraler Bedeutung. Durch Automatisierung und prädiktive Analyse in Echtzeit, die auf Workload-Profilen beruht, wird ein Unternehmen in die Lage versetzt, einen Wettbewerbsvorteil aufrechtzuerhalten. Indem sie Produktions-Datenmengen erfasst, analysiert und anpasst, versetzt sie Unternehmen in die Lage, Trends vorherzusagen, Effizienzpotential zu identifizieren und so Ressourcen akkurat und autonom zu provisionieren.
Wie schon erwähnt, stellt der Mangel an Integration eine große Herausforderung dar. Datensilos und isolierte Plattformen behindern den Fortschritt, der für ein verknüpftes wirtschaftliches Ökosystem erforderlich ist. Indem Unternehmen Plattformen implementieren, die sich ihrer Workloads „bewusst“ sind, werden diese Hindernisse entfernt, so dass Unternehmen eine holistische Echtzeitsicht auf ihren Betrieb erlangen. Plattformen, die handlungsorientiertes Workload-Management unterstützen, befreien zahlreiche Funktionen, die Zeit und Kosten sparen. Diese Funktionen erleichtern die nahtlose Integration über die ganze Organisation hinweg.
Während die Verarbeitungsfähigkeiten erweitert werden, ist es erforderlich, die Kosten zu kontrollieren, aber gleichzeitig die Qualität eines Systems aufrechtzuerhalten. Echtzeit-Workload-Profile ermöglichen autonomes Nachjustieren dieser Workloads, aber auch Kostenkontrolle und Steuerung. Hersteller wie Tintri, so Trickovic, hätten sich der optimalen Intelligenz und der autonomen Skalierbarkeit verschrieben.
Solche AIOps-Systeme können Workloads vorhersagen. GenAI-Werkzeuge, die Text erzeugen, verarbeiten Daten je nach Komplexität und Länge der Anfrage. Jeder Buchstabe erfordert ungefähr vier Byte, eine durchschnittliche Textabfrage benötigt etwa 2.000 Buchstaben oder weniger. Bilderzeugung ist datenintensiver, wobei ein Bild hoher Auflösung rund zwei MB groß ist. Sprachsynthese erfordert ebenfalls rund zwei MB für durchschnittliche Sprachausgabe in SD-Qualität. Auch VDI-Systeme sind für ihren Speicherhunger bekannt (VDI: Virtual Desktop Infrastructure).
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Um diese unterschiedlichen Workload-Anforderungen feingranular und effizient zu handhaben, ist nach Bartz’ Ansicht nicht nur eine hohe Daten- und Workload-Mobilität nötig, sondern auch die Berücksichtigung und Berechnung von I/O-Flaschenhälsen. Eine neue Pre-Fetch-Funktion kann laut Trickovic wie bei einem Cache die voraussichtliche Ressource an Speicher, I/O sowie Rechenleistung bereitstellen. Damit lassen sich die genannten Wartezustände eliminieren und „intelligente“ I/O-Pfade für die Workload-Ausführung bereitstellen.
Kampf den Flaschenhälsen
In einem Tintri-Blog hat sich Bartz’ Kollege Matthew Olson intensiv mit diesem Thema befasst: „Nur Storage, der sich der Workloads bewusst ist, ermöglicht es Admins, Workloads aufzuspüren, die um I/O-Bandbreite kämpfen, und sich um die Lösung dieses Problems zu kümmern.“ Solche Speicherlösungen stellen optimale I/O-Bandbreite bereit, indem sie Leistungsmetriken in Echtzeit für jeden Workload überwachen. „Damit erleichtern sie das Trainieren von KI- und Machine-Learning-Modellen.“ Nicht nur wird dabei die Latenzzeit minimiert, sondern auch die Leistung des gesamten IT-Stacks sowie der Workload-Ressourcen beständig auf dem erforderlichen Niveau gehalten.
„Organisationen, die solche Workload-basierten Speicherlösungen implementieren, sehen häufig dramatische Verbesserungen in ihren IT-Umgebungen“, berichtet Olson. „So sehen beispielsweise Unternehmen mit hochverdichteten Virtualisierungsumgebungen eine Verringerung ihrer Latenzzeiten um bis zu 50 Prozent und erleben während der Peak-Nutzungszeiten eine beständige Aufrechterhaltung der Performance.“
Tintri VMstore
Storage-Lösungen wie Tintri VMstore unterstützten solche Umgebungen, so Olson. VMStore wird im RAM ausgeführt, ist unabhängig von einem bestimmten Hypervisor und lässt sich überall bereitstellen, sei es On-Prem, in einer Hybrid- oder Multi-Cloud. Kurzum: Eine Workload lässt sich auf mehreren Plattformen unabhängig vom jeweiligen Hypervisor bereitstellen und ausführen.
In VMstore setzt Tintri ganz auf AIOps, das heißt die KI-gestützte Automation zahlreicher Abläufe. Die VMStore Software Suite umfasst die Funktionen Analytics, SecureVM, SyncVM, Cloud Connector, ReplicateVM und VMScale-Out.
Der Technikstapel umfasst AIOps-Funktionen und eine globale Kontrollebene, eine „Data Plan“e. Die Strategie Tintris ist auf eine „Global Workload Control Plane“ (GCP) fokussiert. Die Sicht auf die einzelnen Ebenen war bislang offenbar begrenzt, doch nun sind einzelne VMs, Datenbanken (SQL) und vDisks erkennbar. So sollen die Ursachen für die oben genannten Engpässe und Flaschenhälse feingranular sichtbar werden. Die Echtzeit-Analysefunktionen finden die Ursachen, die auf dem Dashboard angezeigt werden.
„Das ist bei hybriden Betriebsmodellen, in denen Workloads zwischen On-Prem IT und Cloud-Ressourcen mobil hin und her wandern, ziemlich knifflig“, weiß Thomas Bartz, „wenn beispielsweise das Produktivsystem On-Prem arbeitet, Testing und Entwicklung aber in der Cloud ausgeführt werden.“ Trickovic schätzt, dass dieses Jahr bis zu 20 Prozent aller Testdaten für kundenorientierte Anwendungsfälle durch generative KI erzeugt werden. Mit der GCP sei die Balancierung jedoch kein Problem. „Sie wählt auch die am besten geeigneten oder kostengünstigsten Speicherklassen in der Cloud aus.“
Die automatische Engine der GCP sorge dafür, dass überwachte Ressourcen entsprechend dem Bedarf in Echtzeit zugewiesen und notfalls erweitert würden. Das ist besonders für den Betrieb beziehungsweise die Nutzung von Large Language Models (LLMs) wichtig, auf denen generative KI beruht. Für diesen Zweck führt das Tintri-Filesystem die verschiedenen Workloads nicht nacheinander, sondern parallel aus. „So können Unternehmen die Effizienz ihrer Storage-Infrastruktur maximieren.“
Aktuelles eBook
Ransomware-Schutz durch Object Lock und WORM
eBook „Ransomware-Schutz“
(Bild: Storage-Insider)
Um ein Storage-System effektiv von Ransomware-Angriffen zu schützen, bieten sich neben Backup/Disaster Recovery und Verschlüsselung vor allem Object Lock und WORM an. Das gelingt nicht nur im eigenen Haus, sondern auch in der Hybrid-Cloud.