Mobile-Menu

Warum viele Unternehmen bei Object-Storage umdenken Weg mit dem Tiering?

Ein Gastbeitrag von Dr. Christian Kaul* 5 min Lesedauer

Anbieter zum Thema

Viele Unternehmen überdenken das klassische Tiering im Object-Storage, das häufig Fehler und Kosten verursacht. „Always-hot“-Modelle bieten sofortigen Datenzugriff ohne Wiederherstellungslogik, was die Komplexität reduziert und die Kosten kalkulierbar hält. Diese Architektur gewährleistet Stabilität und Effizienz bei gleichzeitiger Beibehaltung der S3-Kompatibilität, was ihre Integration in bestehende Systeme erleichtert.

Das Tiering-Konzept trennt oft genutzte Daten für schnellen Zugriff von selten benötigten Informationen in günstigeren Archiven. Doch die Praxis zeigt, dass komplexe Lifecycle-Regeln oft fehleranfällig sind. Ändern sich Zugriffsgewohnheiten durch neue Anwendungen, können Daten zur falschen Zeit verschoben werden, was zu Leistungsproblemen und unklaren Kosten führt.(Bild:  Midjourney / KI-generiert)
Das Tiering-Konzept trennt oft genutzte Daten für schnellen Zugriff von selten benötigten Informationen in günstigeren Archiven. Doch die Praxis zeigt, dass komplexe Lifecycle-Regeln oft fehleranfällig sind. Ändern sich Zugriffsgewohnheiten durch neue Anwendungen, können Daten zur falschen Zeit verschoben werden, was zu Leistungsproblemen und unklaren Kosten führt.
(Bild: Midjourney / KI-generiert)

Cloud-Object-Storage gehört längst zum Standardrepertoire moderner IT-Infrastrukturen. Die meisten Unternehmen setzen dabei auf Speicherlösungen, die sich am etablierten S3-Modell orientieren. Dieses Modell sieht eine klare Trennung zwischen verschiedenen Speicherebenen vor: Häufig genutzte Daten liegen im schnellen Zugriff, selten genutzte Inhalte werden in günstigere Speicherklassen verschoben – etwa in sogenannte „Cold“ oder „Archive“-Tiers.

Ergänzt wird dieses Konzept durch Lifecycle-Richtlinien, die automatisch die Daten zwischen diesen Ebenen verschieben sollen, sowie durch granulare Zugriffskonzepte zur differenzierten Rechtevergabe. Was in der Theorie wie ein durchdachtes System wirkt, erweist sich in der Praxis jedoch oft als fehleranfällig und schwer wartbar. IT-Verantwortliche kämpfen mit steigender Komplexität, sinkender Transparenz und unvorhersehbaren Abrufkosten, etwa durch plötzliche Restore-Vorgänge oder systembedingte Egress-Gebühren. Die Folge: Die Planungssicherheit leidet, und im Recovery-Fall oder bei angebundenen Applikationen drohen empfindliche Verzögerungen.

Vor diesem Hintergrund stellen immer mehr Enterprise-Architektinnen und -Architekten die Grundprinzipien des klassischen Tiering-Modells infrage. Statt auf unterschiedliche Speicherklassen zu setzen, bevorzugen sie Systeme, bei denen alle Daten unabhängig von ihrer Zugriffshäufigkeit sofort verfügbar sind. Solche „Always-hot“-Modelle versprechen nicht nur eine deutliche Vereinfachung im Betrieb, sondern auch mehr Kontrolle über die Kosten und eine höhere Robustheit bei Ausfällen oder Datenzugriffen durch Drittsysteme. Gleichzeitig bleibt die S3-Kompatibilität erhalten, was die Integration in bestehende Workflows und Anwendungen erleichtert.

Tiering: technisch durchdacht, praktisch anfällig

Das Prinzip des Tierings klingt zunächst schlüssig. Häufig genutzte Daten bleiben im schnellen Speicher, selten genutzte Informationen wandern in kostengünstige Archive. In der Praxis führt diese Logik jedoch oft zu Fehlerquellen. Lifecycle-Richtlinien sind komplex und reagieren empfindlich auf sich verändernde Zugriffsmuster. Viele Unternehmen definieren ihre Policies initial auf Basis von Annahmen, etwa: „Daten, auf die 30 Tage lang nicht zugegriffen wurde, können in die Cold-Klasse verschoben werden.“

Doch sobald Anwendungen ihre Zugriffscharakteristik ändern – etwa durch neue Datenanalyseprozesse, Reporting-Funktionen oder unerwartete Restore-Szenarien – greifen diese Regeln ins Leere oder verschieben Daten genau zum falschen Zeitpunkt. Die Folge sind Performance-Probleme, Wiederherstellungsfehler oder nicht nachvollziehbare Kostenstrukturen.

Kritisch wird es insbesondere bei Tiered-Storage-Modellen, bei denen Archive wie S3 Glacier oder Deep Archive mit erheblichen Verzögerungen und Gebühren für den Datenabruf verbunden sind. In derartigen Fällen können Restore-Vorgänge mehrere Stunden dauern und sind zudem mit Abrufkosten verbunden, die nicht selten ein Vielfaches des ursprünglichen Speichersatzes betragen.

Auch APIs reagieren in diesen Fällen nicht wie gewohnt: Anwendungen erhalten Time-outs oder Fehlercodes, wenn Objekte nicht sofort verfügbar sind. Für angebundene Systeme, etwa Backup-Tools, Archivierungslösungen oder analytische Workloads, bedeutet das: Prozesse brechen ab oder müssen aufwendig neu gestartet werden. In besonders kritischen Infrastrukturen – etwa bei produktionsnahen Systemen oder bei zeitkritischer Datenverarbeitung – ist das klassische Tiering daher nicht nur ineffizient, sondern potenziell geschäftsschädigend.

Always-hot als Architekturprinzip

Ein Speicher, der sämtliche Daten jederzeit verfügbar hält, adressiert viele der Schwächen klassischer Tiering-Modelle. Indem alle Objekte in einem einheitlichen, performanten Speicherbereich abgelegt werden, entfällt die Notwendigkeit, zwischen verschiedenen Klassen wie „Standard“, „Infrequent Access“ oder „Archive“ zu unterscheiden. Unternehmen profitieren dadurch von einem konsistenten Zugriff ohne Wiederherstellungslogik, ohne Wartezeiten und ohne das Risiko, dass Anwendungen durch nicht verfügbare Daten blockiert werden.

Vor allem für Einsatzszenarien wie Backups, langfristige Archive mit Direktzugriff oder analytische Workloads mit unvorhersehbaren Zugriffsmustern bedeutet das eine spürbare Vereinfachung. Es muss keine Lifecycle-Konfiguration mehr gepflegt werden, und auch die Kosten bleiben kalkulierbar – ohne versteckte Egress-Gebühren oder Mindesthaltedauern.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Diese Architekturvereinfachung funktioniert jedoch nur dann zuverlässig, wenn auch die Zugriffskontrolle präzise und zugleich praktikabel umgesetzt ist. Traditionelle S3-Implementierungen setzen auf Bucket-Policies und ACLs, die zwar flexibel, in der Praxis aber oft schwer zu durchdringen und fehleranfällig sind – insbesondere bei vielen Buckets und komplexen Organisationsstrukturen. Moderne Object-Storage-Lösungen setzen stattdessen auf ein identitätsbasiertes IAM-Modell, das Rechte granular auf Nutzer- und Objektebene vergibt. Durch die Möglichkeit, gezielt einzelne Aktionen wie Lesen, Schreiben oder Löschen über sogenannte IAM-Policies zu definieren, lassen sich auch in Multi-Tenant-Umgebungen differenzierte Zugriffsszenarien abbilden.

Entscheidend für die Enterprise-Tauglichkeit solcher Lösungen ist jedoch nicht nur die Policy-Logik im Backend, sondern auch die Qualität der Benutzeroberfläche. IT-Teams müssen in der Lage sein, Rechte, Nutzer und Freigaben ohne tiefgreifende API-Kenntnisse zu verwalten. Eine durchdachte Web-Konsole wird damit zum eigentlichen Kontrollzentrum. Hier sollten alle wesentlichen Funktionen abgebildet sein: das Anlegen und Verwalten von Buckets, die Zuweisung von Rollen und Zugriffen, das Erstellen temporärer Freigaben via presigned URLs sowie Optionen zur Migration und zum Monitoring. Auch Funktionen wie Object-Tagging oder Logging müssen direkt über die Oberfläche nutzbar sein, um Audits, Nachvollziehbarkeit und Automatisierung zu unterstützen.

Erst das Zusammenspiel aus einer Always-hot-Speicherarchitektur, einem feingranularen IAM-System und einer leistungsfähigen Web-Oberfläche ermöglicht es Unternehmen, ihren Object-Storage nicht nur sicher und effizient zu betreiben, sondern auch flexibel in bestehende Infrastrukturen zu integrieren – ohne die typischen Fallstricke klassischer S3-Modelle.

Anforderungen an moderne Speicherlösungen

Neben reiner Performance rücken rechtliche, sicherheitstechnische und regulatorische Anforderungen zunehmend in den Fokus von Unternehmen, die Object-Storage einsetzen. Der Wunsch nach europäischer Datensouveränität, DSGVO-Konformität und Schutz vor Gesetzen wie dem CLOUD Act macht Rechenzentren mit zertifizierter Infrastruktur und regionaler Steuerung attraktiver denn je. Gleichzeitig müssen Speicherlösungen verschlüsselte Datenübertragung, granulare Zugriffskontrolle, Mandantenfähigkeit und API-Limits bieten, die mit etablierten Standards kompatibel sind.

Dr. Christian Kaul, COO und Co-Founder Impossible Cloud.(Bild:  Impossible Cloud)
Dr. Christian Kaul, COO und Co-Founder Impossible Cloud.
(Bild: Impossible Cloud)

In diesem Kontext zeigt sich: Klassisches Tiering wird zunehmend zum Risiko – durch Komplexität, Intransparenz und fehlende Verfügbarkeit im Ernstfall. Speicherlösungen mit Always-hot-Modell und S3-Kompatibilität bieten eine architektonisch schlanke, administrativ einfache und rechtlich tragfähige Alternative. Wer seine Speicherstrategie zukunftssicher aufstellen möchte, sollte nicht nur Funktionen, sondern auch die Architektur grundlegend hinterfragen – und konsequent auf Lösungen setzen, die Zugriff, Sicherheit und Kontrolle gleichermaßen gewährleisten.

* Der Autor: Dr. Christian Kaul, COO und Co-Founder Impossible Cloud

Aktuelles eBook

Storage-Software als Effizienzbooster

eBook Storage-Software als Effizienzbooster
eBook „Storage-Software als Effizienzbooster“
(Bild: Storage-Insider)

Mit der geeigneten Storage-Software kann sich ein Unternehmen einen Effizienzbooster ins Haus holen oder in der Cloud abonnieren. Dieser Booster steigert nicht nur die Performance der geschäftskritischen Anwendungen, sondern optimiert auch die Kosten der bereits installierten Speichersysteme.

Die Themen im Überblick:

  • Herausforderungen eines modernen Speichersystems
  • Methoden und Technologien effizienter Speichersysteme
  • Effizienter Speicher mit Pure Storage, AWS, Cohesity und Dell

(ID:50504431)