Zwei Fragen an OCZ über Low Latency, Teil 1 Neue Flash-Besen kehren gut, alte etwas langsamer
Bei Ratespielen ist Geschwindigkeit Trumpf. Wenn man allerdings raten muss, wie schnell eine Flash-Festplatte ist, dann ist Ärger vorprogrammiert. Im Rechenzentrum eingesetzt erwartet ein IT-Leiter von seiner SSD eine kontinuierliche I/O-Geschwindigkeit. Leichter gesagt als getan.
Anbieter zum Thema

Storage-Insider: Worin liegen für die Anwender die Herausforderungen von Low Latency?
Scott Harlin: In den letzten 10 Jahren wurde die Speichertechnologie durch die NAND-Flash-Speicher-Technologie revolutioniert. Typische Reaktionszeiten von Geräten sind geschrumpft und haben anhand Menge und Anwendungen schnell die Vorteile dieser neu gewonnenen Geschwindigkeit aufgegriffen.
Seitdem haben Systeme eine immer größere Nachfrage nach blitzschnellen I/O-Latenzzeiten. Heute bedienen sich Anwendungen nicht nur an den Vorteilen von SSDs hinsichtlich sehr niedriger Latenzzeiten – sie hängen davon ab.
Diese Abhängigkeit bedeutet für Systemarchitekten, dass sie den Schwerpunkt nicht mehr ausschließlich auf typische oder maximale Latenz-Metriken richten können – Latenz-Konsistenz oder Quality of Service (QoS) Metriken haben weit mehr an Bedeutung gewonnen. Heutige Systeme sind von SSDs nicht nur bezüglich Low-Latency-Zugriffszeiten abhängig, sondern auch bezüglich ihrer Leistungsbeständigkeit.
Im Rechenzentrum streben IT-Manager nach einheitlichen I/O-Antworten, so dass eine vorhersehbare und effizientere I/O-Leistung zur Unterstützung der Kundenbasis erreicht werden kann. Durch die Bereitstellung eines berechenbaren und beständigen I/O-Zugriffs innerhalb des Unternehmens reduziert nicht nur potentielle System- und Speicherengpässe, sondern hilft auch bei der Verbesserung der End-Nutzer-Produktivität (Client) und des allgemeinen Computing-Erlebnisses.
Aus Perspektive der Gesamtbetriebskosten (TCO) trägt eine konsistente und vorhersagbare I/O-Leistung zur Verringerung des gesamten Energieverbrauchs und den damit verbundenen Kosten für die Kühlung, Wartung und Support bei. Daneben können administrative Aufgaben mit Zuversicht geplant und durchgeführt werden.
Um eine Enterprise-SSD richtig zu messen, muss sie den ‚Steady State‘-Zustand durch genug Schreib/Lösch (P/E)-Zyklen erreicht haben, so dass die Leistungszeiten für Schreiboperationen stabil sind und auf einheitliche Weise ausgewertet werden können. Daher steht die über die Zeit hinweg gelieferte ‚Steady State‘-Performance (oder nachhaltige Leistung) der ‚Fresh-Out-Of-The-Box‘ (FOB)-Leistung gegenüber.
In einem FOB-Szenario ist die SSD neu und im Wesentlichen leer. So können Schreiboperationen durchgeführt werden, ohne vorher zu stoppen und zuerst Blöcke löschen zu müssen. SSDs erledigen den Löschprozess für einen Block immer zu Beginn eines jeden Schreibvorgangs, was folglich die Schreibzykluszeit erhöht.
Das bedeutet, dass ein neues gegenüber einem gebrauchten Laufwerk schnellere Schreibzeiten liefern wird und die Performance-Metriken in der Anfangszeit höher und besser sein werden als nachher im gebrauchten Zustand. Um die Schreibperformance genau bewerten zu können, wird eine Konfiguration verwendet, um die ‚Steady State‘-Schreibleistung einer SSD durch eine Reihe an Schreiboperationen in einem festen Muster zu replizieren.
Welche Vorgehensweise empfehlen Sie als Hersteller beim Einstieg in eine Low-Latency-Infrastruktur?
Scott Harlin: Die größte Herausforderung beim Einstieg in eine Low-Latency-Infrastruktur ist die Latenz-Beständigkeit. Engineering-Laufwerke mit einer im Durchschnitt niedrigen Latenzzeit, sind relativ einfach im Vergleich zu Herstellung eines SSD, die über viele Anwendungsfälle hinweg eine beständige Performance innerhalb einer engeren Spezifikation liefert.
Die Technologie von NAND-Flash-Speichern ist im Speziellen nicht für eine konstante Leistung ausgelegt und benötigt ein funktionierendes ‚Housekeeping‘ im Hintergrund, um die Leistung und Ausdauer zu maximieren. Dazu gehören Aufgaben wie Garbage Collection, Wear Levelling und Data Scrambling.
Strenge Latenz-Konsistenzbedingungen erlauben weder einen ‚Schluckauf‘ noch Verzögerungen bei der Leistung des Laufwerks und können daher auch nicht auf solche Hintergrundaufgaben warten.
In einem Unternehmensnetzwerk kann das Datenpaket sowohl zu Speicher- als auch I/O-Zugriffsverzögerungen von zwischenliegenden Infrastrukturgeräten wie Schalter oder Brücken führen. Daher benötigen Enterprise-SSDs mit wettbewerbsfähigen QoS-Spezifikationen die Implementierung dynamischer NAND-Management-Funktionen, welche gleichmäßige Reaktionszeiten ohne Kompromisse bei der Leistung ermöglichen.
(ID:43192294)