Suchen

Das Cache Accelerated Sequential Layout von Nimble Storage So werden Speicher-Workloads passgenau organisiert

| Autor / Redakteur: Klaus Kupfer / Nico Litzel

Die Leistungsfähigkeit von großen Anwendungen hängt von flexiblen Lösungen in allen beteiligten Bereichen ab: von der Server- und Betriebssystemstruktur über die Netzwerkarchitektur bis zum Speichermanagement. Gerade beim Storage gibt es noch viel Optimierungs- und damit Einsparpotenzial.

Firmen zum Thema

Der Autor: Klaus Kupfer ist Senior Systems Engineer bei Nimble Storage
Der Autor: Klaus Kupfer ist Senior Systems Engineer bei Nimble Storage
(Bild: Nimble Storage)

Die Workloads für geschäftskritische Anwendungen im Umfeld von Datenbanken oder Collaboration-Tools wie Exchange, Notes oder Sharepoint werden immer größer. Das hat nicht zuletzt Auswirkungen auf die Organisation der Speicher-Workloads. Ebenso wie im Server- und Netzwerkbereich geht es auch beim Speichermanagement um modulare Architekturen, mit denen die quer zu einander liegenden Parameter Leistung, Kapazität und Preis in eine stabile Balance gebracht werden können.

Mit traditionellen Festplattenspeichersystemen lässt sich diese Balance nicht schaffen, schon gar nicht, wenn man an Anwendungen wie virtuelle Desktop-Systeme, E-Commerce oder umfangreiche Datenbankoperationen in Gestalt schneller Transaktionen oder Echtzeit-Analyse-Programme denkt. Die Mehrzahl solcher Anwendungen läuft heute über virtuelle Maschinen oder über die Cloud. Beide IT-Spielarten setzen eine schnelle und flexible Allokation der verschiedenen IT-Ressourcen voraus.

Bildergalerie

Erhebliche Überdimensionierung

Die Beschränkungen traditioneller Speichersysteme sind überall in den verschiedenen Speicherprozessen sichtbar, im Primärspeicher ebenso wie im Backup und bei der Wiederherstellung der Daten nach einem Systemabsturz. Bei Primärspeichern klemmt es beispielsweise immer wieder beim Austarieren von Leistung und Kapazität. Kapazitätsstarke Laufwerke sind zwar relativ kostengünstig, bieten aber nicht die von Primärspeicheranwendungen benötigte Geschwindigkeit, leistungsstarke Festplatten wiederum sind teuer, unter anderem dadurch, dass eine erhebliche kapazitive Überdimensionierung betrieben werden muss, um auf ausreichende I/O-Performance zu kommen.

Diese Überdimensionierung resultiert aus der Maßnahme, dass so viele schnell drehende Festplatten eingesetzt werden, wie nötig sind, um die erwünschte Zahl der pro Sekunde durchführbaren Ein- und Ausgaben-Operationen zu erreichen. Die daraus erwachsende Verschwendung von Ressourcen wird noch einmal größer durch den hierdurch ausgelösten erhöhten Platzbedarf sowie unnötige Energie- und Kühlungskosten.

Hybride Architektur

Mit verschiedenen Typen von Halbleiterspeichern (DRAM, EEPROM, Flash-EEPROM) stehen prinzipiell Alternativen für die traditionellen Festplattenspeicher zur Verfügung, deren Eingabe-Ausgabe-Leistung um das Fünfzig- bis Hundertfache über der des schnellsten Laufwerks liegt. Aber auch hier steckt der Teufel im Detail. Halbleiterspeicher sind im Vergleich zu hochkapazitiven Festplattenlaufwerken nicht nur recht teuer (letztere bieten für den gleichen Preis etwa das Zwanzigfache an Speicherplatz), sondern sie zeigen auch Geschwindigkeitsdefizite bei Random-Schreiboperationen, verursacht durch die Block-Struktur der Flash-Speicher. Mehr noch: bei sehr vielen solcher nach dem Zufallsprinzip auftretenden Schreibzugriffe geraten die Flash-Speicher unter Dauerstress, sodass ihre Lebensdauer stark verkürzt wird.

(ID:42517724)