Mobile-Menu

Definition Was ist Tiered Storage?

Tiered Storage oder auch Storage Tiering steht für die Speicherung von Daten auf den unter Performance-, Kapazitäts-, Funktionalitäts- und Kostenaspekten jeweils am besten geeigneten Medientypen. Wo diese optimal aufgehoben sind, hängt von unterschiedlichen Faktoren ab. Hierzu zählen unter anderem Leistungs-, Verfügbarkeits-, Sicherheits- oder Wiederherstellungsanforderungen.

Anbieter zum Thema

Die wichtigsten IT-Fachbegriffe verständlich erklärt.
Die wichtigsten IT-Fachbegriffe verständlich erklärt.
(Bild: © aga7ta - Fotolia)

Abgestufte („Tiered“) Speicherverfahren, das heißt, Daten gemäß festgelegter Kriterien zwischen verschiedenen Storage-Systemen, Laufwerkstypen oder RAID-Gruppen zu verschieben und letztlich auf dem jeweils im Hinblick auf Leistung, Kapazität und Kosten passenden Medien abzulegen, sind keine neue Erfindung. Vielmehr reichen erste Ansätze in die 1970er-Jahre zurück.

Zu den Vorreitern bei der Umsetzung entsprechender Konzepte zählte IBM. Bereits 1974 führte der Hersteller mit dem Hierarchical Storage Manager eine Software ein, mit der sich im Mainframe-Umfeld Produktionsdaten gemäß vorgegebener Kriterien automatisch sichern und im Bedarfsfall wiederherstellen ließen. Darüber hinaus konnten Dateien in Zeiten, in denen diese nicht benötigt wurden, auf kostengünstigere Speicher verlagert werden.

Die Klassiker

Dieser Ansatz legte den Grundstein für das klassische Hierarchical-Storage-Management- (HSM) Konzept, das die automatische Speicherung von Daten gemäß der Nutzungshäufigkeit in den Mittelpunkt stellt. Daraus entwickelte sich das Information Lifecyle Management (ILM), ein ganzheitlicher Prozess, bei dem der Fokus auf der Wertigkeit der Daten liegt.

Zugriffshäufigkeit als Maß

Zunehmend an Popularität gewannen die abgestuften Speichermethoden in den 1990er-Jahren. Dies ist nicht zuletzt dem seinerzeit von Gartner-Analysten vorgestellten dreistufigen Storage-Modell zuzuschreiben, das die Speichereffizienz verbessern sollte.

Die Verlagerung der Daten bestimmte wie beim HSM-Ansatz die Nutzungsfrequenz, der das Pareto-Prinzip – besser bekannt als 80/20-Regel – zugrunde liegt. Dieses besagt, dass nur 20 Prozent der erfassten Daten kontinuierlich genutzt werden, die verbleibenden 80 Prozent lediglich in den ersten 30 Tagen in die Kategorie „aktiv“ fallen.

Regelbasierende Verlagerung

Stark vereinfacht gesprochen, heißt dies, dass auf das Gros der auf dem Primärspeicher (Tier 1) vorgehaltenen Informationen schon nach kurzer Zeit immer weniger häufig zugegriffen wird. Diese weiterhin auf dem teuren Speicher vorzuhalten, ist daher wirtschaftlich kaum sinnvoll, und es bietet sich daher an, sie auf die nächste Ebene (Tier 2) zu verschieben. Tendieren die Abrufe gegen null, ist Tier 3 angesagt.

Ohne Frage ist dies eine sehr simplifizierte Darstellung, da schon seinerzeit viele weitere Kriterien – anwendungsspezifische Anforderungen, Datenverfügbarkeit für Dokumentationszwecke etc. – für die Klassifizierung genutzt wurden, die der Speicherung und Verlagerung von Daten vorangestellt ist.

Von zwei hin zu fünf oder mehr Tiers

Tiered Storage ist mit HSM und ILM verwandt und baut auf deren bekannten Grundkonzepten auf. Anfangs dominierte ein zweistufiges Modell das Bild, bei dem per Short-Stroking oder Striping Daten auf Festplatten verschiedenster Ausführung (7.2K, 15K, SAS, SATA) geschrieben und zwischen den HDDs und nachgelagerten Bandbibliotheken oder Offline-Archiven verschoben wurden.

Zwischenzeitlich kamen in Folge des Einzugs neuer Speichermedien und -technologien am Markt sowohl am oberen als auch am unteren Leistungsende weitere Tiers hinzu. Gängig sind Architekturen mit vier bis fünf Abstufungen, wenngleich in komplexeren Infrastrukturen durchaus bis hin zu maximal zehn Ebenen möglich sind.

Wohin mit welchen Daten?

Grundsätzlich gilt: Je kleiner die dem Tier zugeordnete Zahl, desto leistungsfähiger ist der sich dahinter verbergende Speicher. Dadurch lassen sich Daten zwar in höherer Geschwindigkeit abrufen, doch das hat auch seinen Preis.

Wenn Speed das Top-Kriterium ist

Startete die Hierarchie in der Vergangenheit bei Tier 1, so macht heute die als Tier 0 bezeichnete Ebene den Anfang. Geschuldet ist dies dem Aufkommen neuer Speichertypen wie Solid-State-Disks und Flash-Storage, die selbst schnellen Festplatten von der Performance her überlegen sind.

Aufgrund ihrer hohen Verfügbarkeit und Durchsatzraten entwickelten sich die Medien im Verlauf der Zeit zu idealen Partnern leistungsfordernder, latenzsensibler Anwendungen. Damit sind sie mittlerweile die neue Heimat für geschäftskritische Transaktionsdaten, die mit größtmöglicher Geschwindigkeit erfasst, verarbeitet und ausgegeben werden müssen.

Wenn es weiterhin schnell gehen muss

Tier-1-Speicher – hierbei handelt es sich häufig um SAN- oder NAS-Systeme – ist geschäftskritischen Anwendungsdaten mit hohen Zugriffsraten vorbehalten, die auf schnelle Schreib- und Lesevorgänge, nahezu keine Ausfallzeiten sowie schnelle Wiederherstellungszeiten angewiesen sind. Ein Beispiel hierfür sind transaktionale Online-Datenbanken, die Hochgeschwindigkeitsapplikationen in Echtzeit mit Informationen füttern.

Wenn Sicherheit und Verlässlichkeit zählen

Anwendungen, die große Datenmengen erzeugen, jedoch mit etwas langsameren Antwortzeiten zurechtkommen – dies können Backup-, Datenbank-, ERP-, CRM- aber auch E-Mail-Lösungen sein –, werden von Sekundärspeichern bedient. Dies sind meist Midrange-Systeme mit einem geringeren Funktionsumfang, die sich durch ein ausgewogenes Preis-Leistungs- und Verfügbarkeitsverhältnis auszeichnen.

Im Mittelpunkt stehen hier in erster Linie eine verlässliche, sichere Datenspeicherung und angemessene Latenzzeiten, die sich nicht im Submillisekundenbereich bewegen müssen.

Wenn Daten nur noch manchmal gebraucht werden

Tier-3-Speicher sind für die digitale Historie gemacht. Das heißt, hier werden ältere, sogenannte „warme“ Daten aufbewahrt, die nur selten oder gar nicht mehr abgerufen werden, die es aber dennoch zu speichern sowie zu archivieren gilt und die, sobald nötig, relativ zügig griffbereit sein sollten. Dabei kann es sich um E-Mails, historische Geschäftsdaten, aber auch für Analysen nutzbare Informationen handeln.

Wenn es fast um die Ewigkeit geht

Geht es um Disaster-Recovery oder aber darum, für die Langzeitarchivierung inaktiver Daten geltende Compliance-Vorgaben oder gesetzliche Regelungen zu erfüllen, kommt Tier-4-Speicher ins Spiel. Obwohl unklar ist, ob die als „kalt“ klassifizierten Daten in der Zukunft nochmals von Nutzen seien könnten, und damit auch, ob jemals wieder auf sie zugegriffen wird, müssen sie dennoch vorgehalten werden.

Da Zugriffszeiten eine untergeordnete Rolle spielen, ist aus Kostengründen üblicherweise Band das Medium der Wahl. Die Verfügbarkeit relativ kostengünstiger Cloud-Speicherressourcen einschließlich des damit verbundenen Angebots an neuen Diensten eröffnet allerdings inzwischen optionale, nuanciertere Möglichkeiten.

Weniger ist manchmal mehr

Wenngleich sich mehrstufig aufgebaute Speicherarchitekturen aus deutlich mehr als nur zwei Tiers zusammensetzen können, ist das klassische Modell wieder en vogue – allerdings in modernerem Gewand. Für das Unternehmen bedeutsame Primärdaten werden auf Flash-Speichern vorgehalten, Sicherungs- und Archivdaten wandern in die Cloud.

Dies liegt unter anderem darin begründet, dass der Entscheidung, wo welche Daten automatisch abgelegt werden sollen, deren Klassifizierung vorausgeht. Und je granularer, desto komplexer gestaltet sich diese.

Doch ganz gleich, wie die Tiered-Storage-Umgebung im einzelnen aussieht, eines behält Gültigkeit: Durch die sinnvolle Kombination von Speicherlösungen lassen sich Dateninfrastrukturen optimieren, skalieren und Leistungssteigerungen erzielen. Auf diese Weise können Unternehmen die beständig wachsende Menge an digitalen Daten im Griff behalten, ohne dass dies die meist begrenzten Personalressourcen sprengt, und somit letztlich Kosten senken.

(ID:45657147)