Anbieter zum Thema
Durch die Kombination von Flash- und traditionellen Festplattenspeichern können Daten priorisiert und je nach Erfordernis im schnellen oder langsameren Speicher abgelegt werden. Wobei diese Einstufung auch nicht in Stein gemeißelt sein muss. Der Ablageort lässt sich jederzeit abändern, etwa wenn ein bestimmtes Set an Daten – etwa aus dem Bereich Finanzen – regelmäßig zum Monats-, Quartals- oder Jahresende benötigt wird.
Die Vorteile hybrider Speicher liegen zwar auf der Hand, doch gerade kleinere und stark ausgelastete Teams haben stellenweise Probleme, diesen Ansatz zu verfolgen. Hier fehlt die Zeit, sich mit der Frage auseinanderzusetzen, welche Daten unmittelbar abrufbar sein müssen und welche nicht. Mit Blick auf virtualisierte Informationen fällt es ihnen auch schwer vorauszusagen, wann welche Daten am häufigsten angefragt werden.
Automatische Analyse des Workloads
Als passende Antwort auf diese Herausforderung gewann Auto Tiering schnell an Relevanz. Denn diese Technik analysiert den Workload und verlagert die Daten je nach Gebrauchshäufigkeit auf die effektivsten Speichermedien. Sie arbeitet selbstständig, sagt Zugriffsmuster voraus, ebenso wie die kurz- und auch langfristig benötigte Speicherkapazität.
Eigentlich ideal, doch die Realität sieht oft anders aus. Viele herkömmliche Systeme am Markt migrieren derzeit die Daten zwischen den Tiers in Batch-Prozessen zu festgelegten Zeiten. Von Echtzeit kann hier also keine Rede sein.
Dieses Problem sollen neue Techniken für intelligentes Tiering beheben. Hierbei handelt es sich um hybride Systeme, die HDD und SSD miteinander kombinieren und so massive Investitionen in SSD-Techniken obsolet machen. Denn die Praxis zeigt, dass in der Regel fünf bis zehn Prozent des kompletten Speichers als SSD genügen, um wichtige Daten schneller im Normalbetrieb zur Verfügung zu stellen.
Zwei und mehr Ebenen
Weil diese Systeme darauf ausgelegt sind, verschiedene Anforderungen hinsichtlich Zugriff und Workload abzubilden, arbeiten sie auch wesentlich intuitiver. Sie bestehen aus mindestens zwei oder mehreren Tiers, beispielsweise SSD in Kombination mit sowohl Enterprise- als auch Nearline-SAS-Laufwerken. Dank intelligenter Algorithmen verschieben sie nur jene Daten auf die schnelle SSD-Ebene, bei denen sicher ist, dass HDD den Anforderungen nicht gerecht werden kann. Auch im Nachgang wird dieses Datenset weiter überwacht und sinkt der Bedarf, wieder auf eine kostengünstigere tiefere Ebene zurückgepackt. Auf diese Weise eingesetzt wird SSD zum Schlüsselfaktor für die Anwendungsbeschleunigung.
(ID:42335147)