Mobile-Menu

Strategiewechsel im Storage-Management Mit KI auf Effizienz getrimmt

Ein Gastbeitrag von Dennis Scheutzel* 4 min Lesedauer

Anbieter zum Thema

Ein effizientes Management von Storage-Kapazitäten ist angesichts exponentiell wachsender Datenmengen überlebenswichtig. Um kostbaren Speicherplatz möglichst wirksam auszunutzen, setzen Unternehmen auf moderne Technologien, allen voran Künstliche Intelligenz. Doch mit Software allein erzielen Firmen nicht die erhofften Effizienzvorteile – mindestens ebenso wichtig ist eine durchdachte Strategie.

Künstliche Intelligenz ist integraler Bestandteil moderner Rechenzentren.(Bild:  ©Just_Super, Getty Images Signature via Canva.com)
Künstliche Intelligenz ist integraler Bestandteil moderner Rechenzentren.
(Bild: ©Just_Super, Getty Images Signature via Canva.com)

Die Ausgangssituation hat sich in den vergangenen Jahren kaum verändert: Steigen die Geschäftsanforderungen und damit die Datenmengen, kaufen viele Unternehmen extra Leistung für einzelne Anwendungen oder Funktionen ein. Damit Performance und Sicherheit stimmen, laufen die Systeme zudem oft auf physikalisch getrennten Maschinen. Das Ergebnis ist eine komplexe Infrastruktur, die schwer zu verwalten ist und erhebliche Kosten verursacht. Bedenkt man weiterhin, dass Technologien wie das Internet of Things oder Generative KI die Datenlast enorm erhöhen, wird schnell klar, warum IT-Entscheider ihre Storage-Umgebungen auf mehr Effizienz trimmen müssen.

Der erste Schritt: eine grundlegende Storage-Strategie

Moderne Lösungen liefern bereits heute die dafür notwendigen Funktionen: Deduplizierung und Komprimierung beispielsweise helfen, den wertvollen Speicherplatz optimal zu nutzen und so eine Kostenexplosion zu verhindern. Diese Features entbinden die Unternehmen aber keineswegs von der Aufgabe, sich vorab Gedanken über ihre Anforderungen zu machen und darauf aufbauend eine Strategie sowie Architektur zu definieren.

Ein gutes Beispiel dafür ist die Klassifizierung der Daten: Nicht alle Informationen sind gleich wichtig, und auch die Anzahl der Zugriffe variiert stark. So wird ein Großteil der einmal abgelegten Daten selten oder gar nicht mehr abgefragt. Für sie genügen langsamere und damit kostengünstigere Speichermedien. Daten hingegen, die besonders häufig genutzt werden und schnell zur Verfügung stehen müssen, sind auf leistungsfähigen Datenträgern wie Solid State Drives (SSDs) oder NVMe-Flash-Speicher besser aufgehoben. Die Klassifizierung hat die Aufgabe, die verschiedenen Informationen, die in einem Netzwerk gespeichert sind, entsprechend ihrem Verwendungszweck und der damit verbundenen Priorität dem jeweils passenden Speichermedium zuzuordnen.

Kann jeder auf die Daten zugreifen?

Unternehmen stehen aber noch vor weiteren Herausforderungen, denn die Daten liegen heute verstreuter als noch vor wenigen Jahren in den Systemen. Für Auswertungen und Entscheidungen in Echtzeit müssen beispielsweise KI-Anwendungen in der Fertigung die Informationen möglichst nahe am Ort ihrer Entstehung verarbeiten. Große Datenmengen in die Cloud zu transferieren, wäre aufgrund der erforderlichen niedrigen Latenz zu zeitaufwändig und auch zu teuer.

Firmen müssen daher den jeweils geeigneten Speicherort wählen – sei es das eigene Rechenzentrum, die öffentliche „Wolke“ oder eben die Edge-Umgebung. Zudem müssen sie sicherstellen, dass die Daten zwischen den verschiedenen Speicherorten problemlos repliziert werden können, um eine hohe Verfügbarkeit zu gewährleisten und Daten vor Verlust zu schützen.

Erschwerend kommt ein weiteres Problem hinzu: Datensilos, in denen relevante Informationen wie die Nadel im Heuhaufen verschwinden. Viele dieser Silos sind bewusst geschaffen worden – etwa aus Datenschutzgründen oder weil sich einzelne Abteilungen dagegen entschieden haben, Informationen zu teilen. Wenn dann noch unterschiedliche Systeme im Einsatz sind und die Daten an den verschiedensten Orten liegen, wird der notwendige Informationsaustausch blockiert. Diese technischen und organisatorischen Silos gilt es aufzulösen.

Schließlich benötigen Unternehmen eine Storage-Lösung, die sich bei steigendem Speicherbedarf problemlos skalieren lässt. Wird mehr Kapazität benötigt, lassen sich einfach neue Knoten hinzufügen. In Kombination mit einem As-a-Service-Modell können Firmen dabei recht einfach ihre Kosteneffizienz verbessern – immerhin werden im Wesentlichen nur die Ressourcen bezahlt, die auch verbraucht werden.

Die doppelte Rolle der KI

Sind diese grundlegenden Fragen einmal geklärt, übernehmen moderne Storage-Systeme viele der Aufgaben automatisiert. Sie nutzen Künstliche Intelligenz, um die Kapazität, die Leistung und den Zustand aller Speichersysteme kontinuierlich zu überwachen und zu optimieren. Sie erkennen unter anderem Muster im Zugriffsverhalten auf Datensätze und können die gespeicherten Informationen nahezu in Echtzeit auf die passenden Storage-Tiers verschieben.

Durch diese permanente Speicherplatzoptimierung sorgen KI-basierte Systeme für maximale Performance und Effizienz. Zudem helfen sie bei der Planung, indem sie frühzeitig vor drohenden Kapazitäts- und Leistungsengpässen warnen. Auch Systemfehler und Defekte sagen sie zuverlässig voraus, bevor diese eintreten, sodass Unternehmen Wartungen gezielt planen und unvorhergesehene Downtimes vermeiden können. Dieser proaktive Ansatz ermöglicht es Unternehmen, immer einen Schritt voraus zu sein und rechtzeitig fundierte Entscheidungen zu treffen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Andererseits erfordert der Einsatz von KI-Anwendungen selbst eine effiziente Speicherinfrastruktur, denn die Technologie lebt von Daten: Nur wenn diese in ausreichender Menge und Qualität vorhanden sind, können die Modelle lernen. KPIs beispielsweise sind umso aussagekräftiger, je weiter sie in die Vergangenheit reichen. Erst dann wird eine historische Entwicklung einzelner Prozesse erkennbar, aus der die KI gewinnbringende Schlüsse ziehen kann. Viele dieser Daten liegen zudem unstrukturiert vor, sodass traditionelle Systeme die sehr hohen Anforderungen an Leistung, Kapazität, Skalierbarkeit und Datensicherheit kaum erfüllen können. Unternehmen benötigen also ein entsprechend solides Fundament für die KI-Nutzung.

Dennis Scheutzel, Director & General Manager Unstructured Data Solutions and AI Germany, Dell Technologies.(Bild:  Dell)
Dennis Scheutzel, Director & General Manager Unstructured Data Solutions and AI Germany, Dell Technologies.
(Bild: Dell)

Fakt ist: Künstliche Intelligenz hat einen massiven Einfluss auf den Storage-Markt. Ihr volles Potenzial kann die Technologie aber nur entfalten, wenn sich Unternehmen vorab Gedanken über ihre Anforderungen machen.

* Der Autor: Dennis Scheutzel, Director & General Manager Unstructured Data Solutions and AI Germany, Dell Technologies

Aktuelles eBook

Storage-Software als Effizienzbooster

eBook Storage-Software als Effizienzbooster
eBook „Storage-Software als Effizienzbooster“
(Bild: Storage-Insider)

Mit der geeigneten Storage-Software kann sich ein Unternehmen einen Effizienzbooster ins Haus holen oder in der Cloud abonnieren. Dieser Booster steigert nicht nur die Performance der geschäftskritischen Anwendungen, sondern optimiert auch die Kosten der bereits installierten Speichersysteme.

Die Themen im Überblick:

  • Herausforderungen eines modernen Speichersystems
  • Methoden und Technologien effizienter Speichersysteme
  • Effizienter Speicher mit Pure Storage, AWS, Cohesity und Dell

(ID:49995032)