Mobile-Menu

Storage-Management Plattform-Entropie durch autonomes Datenmanagement bekämpfen

Von Michael Matzer 6 min Lesedauer

Anbieter zum Thema

Die durch rasche Zunahme disaggregierter Datenmengen oder schlechte Integration der Komponenten ausgelöste Plattform-Entropie muss nach Ansicht von Tintri dringend bekämpft werden, um die Storage-Systeme fit für KI-Anforderungen zu machen. Die Lösung: autonome AIOps-Systeme.

Die Plattform-Entropie moderner Datenverwaltungssysteme bedroht die Effizienz künftiger KI-Anwendungen. Autonome AIOps-Systeme bieten eine Lösung, indem sie Ordnung ins Chaos bringen, disaggregierte Daten integrieren und Storage-Systeme fit für die Anforderungen der Zukunft machen.(Bild:  Midjourney / KI-generiert)
Die Plattform-Entropie moderner Datenverwaltungssysteme bedroht die Effizienz künftiger KI-Anwendungen. Autonome AIOps-Systeme bieten eine Lösung, indem sie Ordnung ins Chaos bringen, disaggregierte Daten integrieren und Storage-Systeme fit für die Anforderungen der Zukunft machen.
(Bild: Midjourney / KI-generiert)

Die heutigen Systeme für Datenmanagement und Storage stoßen nach Ansicht Phil Trickovics, Senior Vice President bei Tintri, schon längst an ihre Grenzen: „Die CPU-Leistung lässt sich nicht mehr erhöhen, Technologien wie GPUs und DPUs sind lediglich Notbehelfe, um die CPU zu entlasten. Der Energieverbrauch muss dringend verringert werden, die Transaktionskosten pro Workload werden kaum berücksichtigt, die gewohnte Drei-Ebenen-IT-Architektur ist nicht mehr zeitgemäß.“

Bildergalerie
Bildergalerie mit 10 Bildern

Nach Trickovics Ansicht nehmen Komplexität und Ineffizienz im Datenmanagement schleichend zu, so dass „der Begriff ‚Plattform-Entropie‘ angebracht ist, also das Gegenteil von Ordnung und Effizienz“. Entropie ist ein physikalisches Prinzip, das die graduelle Abnahme von höherer Ordnung beschreibt, vor allem auf der Ebene der Energie. Das Endstadium dieser Entropie ist der sogenannte „Wärmetod“: Jedwede höhere Form von Energie wie Öl, Gas und Kohle ist verbrannt, so dass nur noch Wärme übrigbleibt. (Das klingt zwar nach Copacabana, aber warum liegt dann die Temperatur des Alls bei minus 273 Grad Kelvin?)

Virtualisierte Architekturen

Aber nicht nur schlecht oder gar nicht integrierte Systeme und Applikationen tragen dazu bei, sondern auch die Zunahme von parallel betriebenen VMs, Hypervisoren und Container-Clustern, wie Thomas Bartz, Systemingenieur bei Tintri, erläutert. „Diese Managementstrukturen werden von einer Vielzahl unterschiedlicher Storage-Anbieter mehr schlecht als recht unterstützt.“ Denn es ist nach Ansicht von Phil Trickovic bereits jetzt zu erkennen, dass die Data Lakes für aktuelle und künftige KI-Modelle (LLMs) von knapp zwei Milliarden Parametern mehrere Exabytes an Daten umfassen müssen. Der Haken dabei: Die meisten CPUs, GPUs und so weiter befinden sich meist in einem Wartezustand, in dem sie zwar Energie verbrauchen, aber untätig auf die nächste Anforderung warten.

Es sei daher, so Bartz, höchste Zeit, mit der Ineffizienz aufzuräumen, parallele Strukturen zu konsolidieren und AIOps für autonome Storage-Systeme einzuführen. Nur AIOps und Echtzeit-Analytik für intelligentes Datenmanagement reagierten schnell genug, um ein System, das verschiedene Betriebsmodelle wie On-Prem und Cloud integriert, in einem effizienten Zustand zu erhalten – oder es dorthin zu bringen.

Maßnahmen

Um Plattform-Entropie zu bekämpfen, sei es notwendig, Automation und prädiktive Analytik einzuführen. Wenn es um KI-Umgebungen geht, so ist die autonome Optimierung von Echtzeit-Workloads von zentraler Bedeutung. Durch Automatisierung und prädiktive Analyse in Echtzeit, die auf Workload-Profilen beruht, wird ein Unternehmen in die Lage versetzt, einen Wettbewerbsvorteil aufrechtzuerhalten. Indem sie Produktions-Datenmengen erfasst, analysiert und anpasst, versetzt sie Unternehmen in die Lage, Trends vorherzusagen, Effizienzpotential zu identifizieren und so Ressourcen akkurat und autonom zu provisionieren.

Wie schon erwähnt, stellt der Mangel an Integration eine große Herausforderung dar. Datensilos und isolierte Plattformen behindern den Fortschritt, der für ein verknüpftes wirtschaftliches Ökosystem erforderlich ist. Indem Unternehmen Plattformen implementieren, die sich ihrer Workloads „bewusst“ sind, werden diese Hindernisse entfernt, so dass Unternehmen eine holistische Echtzeitsicht auf ihren Betrieb erlangen. Plattformen, die handlungsorientiertes Workload-Management unterstützen, befreien zahlreiche Funktionen, die Zeit und Kosten sparen. Diese Funktionen erleichtern die nahtlose Integration über die ganze Organisation hinweg.

Während die Verarbeitungsfähigkeiten erweitert werden, ist es erforderlich, die Kosten zu kontrollieren, aber gleichzeitig die Qualität eines Systems aufrechtzuerhalten. Echtzeit-Workload-Profile ermöglichen autonomes Nachjustieren dieser Workloads, aber auch Kostenkontrolle und Steuerung. Hersteller wie Tintri, so Trickovic, hätten sich der optimalen Intelligenz und der autonomen Skalierbarkeit verschrieben.

Workloads vorhersagen

Solche AIOps-Systeme können Workloads vorhersagen. GenAI-Werkzeuge, die Text erzeugen, verarbeiten Daten je nach Komplexität und Länge der Anfrage. Jeder Buchstabe erfordert ungefähr vier Byte, eine durchschnittliche Textabfrage benötigt etwa 2.000 Buchstaben oder weniger. Bilderzeugung ist datenintensiver, wobei ein Bild hoher Auflösung rund zwei MB groß ist. Sprachsynthese erfordert ebenfalls rund zwei MB für durchschnittliche Sprachausgabe in SD-Qualität. Auch VDI-Systeme sind für ihren Speicherhunger bekannt (VDI: Virtual Desktop Infrastructure).

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Um diese unterschiedlichen Workload-Anforderungen feingranular und effizient zu handhaben, ist nach Bartz’ Ansicht nicht nur eine hohe Daten- und Workload-Mobilität nötig, sondern auch die Berücksichtigung und Berechnung von I/O-Flaschenhälsen. Eine neue Pre-Fetch-Funktion kann laut Trickovic wie bei einem Cache die voraussichtliche Ressource an Speicher, I/O sowie Rechenleistung bereitstellen. Damit lassen sich die genannten Wartezustände eliminieren und „intelligente“ I/O-Pfade für die Workload-Ausführung bereitstellen.

Kampf den Flaschenhälsen

In einem Tintri-Blog hat sich Bartz’ Kollege Matthew Olson intensiv mit diesem Thema befasst: „Nur Storage, der sich der Workloads bewusst ist, ermöglicht es Admins, Workloads aufzuspüren, die um I/O-Bandbreite kämpfen, und sich um die Lösung dieses Problems zu kümmern.“ Solche Speicherlösungen stellen optimale I/O-Bandbreite bereit, indem sie Leistungsmetriken in Echtzeit für jeden Workload überwachen. „Damit erleichtern sie das Trainieren von KI- und Machine-Learning-Modellen.“ Nicht nur wird dabei die Latenzzeit minimiert, sondern auch die Leistung des gesamten IT-Stacks sowie der Workload-Ressourcen beständig auf dem erforderlichen Niveau gehalten.

„Organisationen, die solche Workload-basierten Speicherlösungen implementieren, sehen häufig dramatische Verbesserungen in ihren IT-Umgebungen“, berichtet Olson. „So sehen beispielsweise Unternehmen mit hochverdichteten Virtualisierungsumgebungen eine Verringerung ihrer Latenzzeiten um bis zu 50 Prozent und erleben während der Peak-Nutzungszeiten eine beständige Aufrechterhaltung der Performance.“

Tintri VMstore

Storage-Lösungen wie Tintri VMstore unterstützten solche Umgebungen, so Olson. VMStore wird im RAM ausgeführt, ist unabhängig von einem bestimmten Hypervisor und lässt sich überall bereitstellen, sei es On-Prem, in einer Hybrid- oder Multi-Cloud. Kurzum: Eine Workload lässt sich auf mehreren Plattformen unabhängig vom jeweiligen Hypervisor bereitstellen und ausführen.

In VMstore setzt Tintri ganz auf AIOps, das heißt die KI-gestützte Automation zahlreicher Abläufe. Die VMStore Software Suite umfasst die Funktionen Analytics, SecureVM, SyncVM, Cloud Connector, ReplicateVM und VM Scale-Out.

Bildergalerie
Bildergalerie mit 10 Bildern

Der Technikstapel umfasst AIOps-Funktionen und eine globale Kontrollebene, eine „Data Plan“e. Die Strategie Tintris ist auf eine „Global Workload Control Plane“ (GCP) fokussiert. Die Sicht auf die einzelnen Ebenen war bislang offenbar begrenzt, doch nun sind einzelne VMs, Datenbanken (SQL) und vDisks erkennbar. So sollen die Ursachen für die oben genannten Engpässe und Flaschenhälse feingranular sichtbar werden. Die Echtzeit-Analysefunktionen finden die Ursachen, die auf dem Dashboard angezeigt werden.

„Das ist bei hybriden Betriebsmodellen, in denen Workloads zwischen On-Prem IT und Cloud-Ressourcen mobil hin und her wandern, ziemlich knifflig“, weiß Thomas Bartz, „wenn beispielsweise das Produktivsystem On-Prem arbeitet, Testing und Entwicklung aber in der Cloud ausgeführt werden.“ Trickovic schätzt, dass dieses Jahr bis zu 20 Prozent aller Testdaten für kundenorientierte Anwendungsfälle durch generative KI erzeugt werden. Mit der GCP sei die Balancierung jedoch kein Problem. „Sie wählt auch die am besten geeigneten oder kostengünstigsten Speicherklassen in der Cloud aus.“

Die automatische Engine der GCP sorge dafür, dass überwachte Ressourcen entsprechend dem Bedarf in Echtzeit zugewiesen und notfalls erweitert würden. Das ist besonders für den Betrieb beziehungsweise die Nutzung von Large Language Models (LLMs) wichtig, auf denen generative KI beruht. Für diesen Zweck führt das Tintri-Filesystem die verschiedenen Workloads nicht nacheinander, sondern parallel aus. „So können Unternehmen die Effizienz ihrer Storage-Infrastruktur maximieren.“

Aktuelles eBook

Ransomware-Schutz durch Object Lock und WORM

eBook „Ransomware-Schutz“
(Bild: Storage-Insider)

Um ein Storage-System effektiv von Ransomware-Angriffen zu schützen, bieten sich neben Backup/Disaster Recovery und Verschlüsselung vor allem Object Lock und WORM an. Das gelingt nicht nur im eigenen Haus, sondern auch in der Hybrid-Cloud.

Die Themen im Überblick:

  • Ransomware-Trends
  • Air-Gapping
  • Amazon S3 Object Lock
  • WORM mit Bandspeicher
  • Schutz durch Algorithmen

(ID:50329864)