Mobile-Menu

Datenorientierte Architektur als strategisches Fundament Von der SSD-Krise zur Neugestaltung der Datenarchitektur

Ein Gastbeitrag von Floyd Christofferson* 3 min Lesedauer

Anbieter zum Thema

„Unter Bedingungen wie steigenden AI-Anforderungen sowie eingeschränkter Hardware-Verfügbarkeit werden nicht diejenigen Organisationen erfolgreich sein, die über die größte Hardwarebasis verfügen“, stellt Floyd Christofferson von Hammerspace im Gastbeitrag fest und erläutert, was stattdessen für Unternehmen entscheidend ist.

Im KI-Zeitalter stellt sich die grundlegende Frage: Werden Systeme weiterhin primär um Hardware herum konzipiert – oder bildet eine datenorientierte, flexible Architektur das strategische Fundament?(Bild:  Midjourney / KI-generiert)
Im KI-Zeitalter stellt sich die grundlegende Frage: Werden Systeme weiterhin primär um Hardware herum konzipiert – oder bildet eine datenorientierte, flexible Architektur das strategische Fundament?
(Bild: Midjourney / KI-generiert)

In den letzten Monaten wurde die sich weiter zuspitzende SSD-Versorgungslage in den Medien intensiv thematisiert und analysiert. Gartner schätzt, dass die Preise für DRAM- und Solid-State-Laufwerke (SSDs) bis Ende 2026 um bis zu 130 Prozent steigen werden. Die Situation ist geprägt durch:

  • deutlich steigende Preise für Enterprise-SSDs und andere Komponenten,
  • verlängerte Lieferzeiten,
  • hohe Planungsunsicherheit aufgrund sich kurzfristig ändernder Marktbedingungen.

Eine kurzfristige Entspannung ist nicht absehbar. Vielmehr wird davon ausgegangen, dass die Einschränkungen mindestens bis 2027 anhalten.

Die strukturelle Schwachstelle: speicherzentrierte Architekturen

Architekturen, die stark auf eine einzelne Speicherklasse ausgerichtet sind, geraten unter Druck, sobald die Verfügbarkeit knapp wird. Plattformen mit enger Bindung an proprietäre Hardware sind besonders anfällig, wenn Liefermengen begrenzt werden. Auch Konsolidierungsstrategien stoßen an Grenzen, wenn Erweiterungen nicht planbar sind.

Die aktuelle SSD-Knappheit legt damit vor allem strukturelle Schwächen offen, die bereits zuvor bestanden.

Viele IT-Umgebungen folgen weiterhin einem speicherzentrierten Paradigma: Daten liegen in isolierten Silos, und die typische Reaktion auf steigende Performance-Anforderungen lautet, zusätzliche All-Flash-Systeme zu beschaffen.

Vor dem Hintergrund beschleunigter AI-Initiativen stößt dieses Modell jedoch an praktische Grenzen. Zwei Aspekte sind dabei entscheidend:

  • 1. der Aufbau neuer All-Flash-Architekturen, insbesondere zur Umsetzung von AI-Projekten, ist nicht realisierbar, wenn die benötigte Flash-Kapazität nicht verfügbar ist,
  • 2. die Konsolidierung aller Daten auf einer Plattform mit eingeschränkter Lieferkette erhöht das Risiko, wenn Hardware nicht planbar beschafft werden kann.

Offene, datenorientierte Architektur als Antwort

Wenn AI-Workloads zusätzliche Performance erfordern, kollidiert der klassische Ansatz „mehr Flash hinzufügen“ unmittelbar mit der realen Marktsituation. Die nachhaltige Antwort besteht daher nicht im weiteren Ausbau einzelner Speicherklassen, sondern in der Entkopplung von Daten und Hardware-Silos.

Erforderlich ist eine standardbasierte, offene Architektur, die Metadaten und Daten von der zugrunde liegenden Speicherinfrastruktur trennt. Eine datenorientierte Architektur schafft die notwendige Flexibilität, um sowohl bestehende Enterprise-Workloads als auch neue AI-Initiativen unter eingeschränkten Lieferbedingungen umzusetzen.

In der Praxis bedeutet dies eine veränderte Herangehensweise an Bereitstellung, Erweiterung und Optimierung von Infrastruktur:

  • Sofortige Integration ohne strukturelle Umbrüche: Der Einsatz erfordert weder proprietäre Client-Software noch die Migration auf ein neues Speichersystem. Bestehende Compute-Cluster können Daten direkt am jeweiligen Speicherort über standardisierte Protokolle nutzen.
  • Unabhängigkeit von einzelnen Speicherklassen: TLC-, QLC-Flash, HDD, Tape, Cloud- und Drittanbietersysteme werden in eine gemeinsame Datenarchitektur eingebunden. Dadurch entfällt die Abhängigkeit von einer einzelnen Flash-Lieferkette.
  • Automatisiertes Tiering im globalen Namespace: Datenbewegungen zwischen Speicherebenen erfolgen regelbasiert innerhalb eines globalen Namespace. Dateien und Objekte bleiben unabhängig vom aktuellen physischen Speicherort adressierbar und zugänglich.
  • Aktivierung lokaler NVMe-Ressourcen in AI- und Compute-Clustern: NVMe-Kapazitäten in GPU- und AI-Servern werden nicht als isolierter, Node-gebundener Speicher betrachtet. Stattdessen werden sie als gemeinsames Tier-0 innerhalb eines plattformübergreifenden Namespace integriert. So wird bislang ungenutzte Flash-Kapazität als gemeinsam nutzbare Performance-Ressource verfügbar – und die Abhängigkeit von zusätzlichen Enterprise-SSD-Systemen reduziert, gerade in Phasen hoher AI-bedingter Performance-Anforderungen.
  • Einbindung von Cloud-Ressourcen: On-Premises-Rechenzentren und Cloud-Umgebungen können in ein gemeinsames Dateisystem integriert werden. Cloud-Speicher und Cloud-Compute lassen sich flexibel und bidirektional nutzen, ohne strukturelle Abhängigkeiten zu schaffen.
  • Weiterverwendung bestehender Speicherinfrastruktur: Vorhandene NAS-, Objekt- und Cloud-Systeme können eingebunden werden. Metadaten bestehender NAS-Systeme bleiben nutzbar, sodass Investitionen geschützt und Laufzeiten verlängert werden: ein wesentlicher Vorteil unter angespannten Beschaffungsbedingungen.

Die Krise als Katalysator struktureller Veränderungen

Unter Bedingungen wie steigenden AI-Anforderungen sowie eingeschränkter Hardware-Verfügbarkeit werden nicht diejenigen Organisationen erfolgreich sein, die über die größte Hardwarebasis verfügen. Entscheidend ist vielmehr die Fähigkeit, vorhandene Ressourcen effizient zu nutzen und Architekturen von Beginn an auf Flexibilität auszurichten.

Für IT-Verantwortliche, die AI-, Analytics- und Next-Generation-Workloads planen, stellt sich daher eine grundlegende Frage: Werden Systeme weiterhin primär um Hardware herum konzipiert – oder bildet eine datenorientierte, flexible Architektur das strategische Fundament?

* Der Autor: Floyd Christofferson, Vice President of Product Marketing, Hammerspace

Aktuelles eBook

Storage-Software als Effizienzbooster

eBook Storage-Software als Effizienzbooster
eBook „Storage-Software als Effizienzbooster“
(Bild: Storage-Insider)

Mit der geeigneten Storage-Software kann sich ein Unternehmen einen Effizienzbooster ins Haus holen oder in der Cloud abonnieren. Dieser Booster steigert nicht nur die Performance der geschäftskritischen Anwendungen, sondern optimiert auch die Kosten der bereits installierten Speichersysteme.

Die Themen im Überblick:

  • Herausforderungen eines modernen Speichersystems
  • Methoden und Technologien effizienter Speichersysteme
  • Effizienter Speicher mit Pure Storage, AWS, Cohesity und Dell

(ID:50772285)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung