Was Flash für eine SAN-Umgebung leisten kann, Teil 1 Schlüsselstellen, an denen sich Festplatten durch SSDs ersetzen lassen

Autor / Redakteur: Joost van Leeuwen und Scott Harlin, OCZ Storage Solutions / Rainer Graefen

In dem Wettrennen um die beste und fortschrittlichste Speicherlösung für ihr Rechenzentrum, beschäftigen sich IT-Manager vermehrt mit den funktionellen Vorteilen der Flash-basierten Solid-State-Drive-Technik. Doch letztlich ist immer die Frage der Rentabilität in einer und für eine SAN-Umgebung zu klären.

Firma zum Thema

Was ist Flash und wie lässt sich die Speichertechnologie in eine SAN-Umgebung sinnvoll einbauen?
Was ist Flash und wie lässt sich die Speichertechnologie in eine SAN-Umgebung sinnvoll einbauen?
(Bild: © Sergey Nivens - Fotolia)

Die Nachfrage nach Speicherplatz steigt stetig und mir ihr klettern auch die Anforderungen an die Datenverarbeitung in die Höhe. Viele Unternehmen sehen sich mit der Situation konfrontiert, dass ihre Systeme diesen Anforderungen nicht mehr gewachsen sind.

Dementsprechend werden leistungsfähigere Lösungen benötigt. Doch um die Frage zu beantworten “ Wann und wo machen SSDs in einer SAN-Umgebung Sinn?“ muss man erst eine gewisse Menge an Hintergrundinformationen zu SSDs Revue passieren lassen.

Bildergalerie

Der kleine Unterschied

Eine SSD besteht aus einer Leiterplatine (PCB), einem Kontroller, Flash-Speicher und einer Firmware. SSDs sind durch die benutzte Halbleitertechnik imstande, Daten wesentlich schneller lesen und schreiben können als Festplatten (HDDs).

Der offensichtliche Unterschied zwischen den beiden Techniken besteht darin, dass Festplatten über bewegliche Teile verfügen und Solid State Drives (SSDs) nicht. Bei einer Festplatte findet man stets eine oder mehrere Magnetscheiben und einen Schreib/Lese-Kopf, der physisch an eine gewünschte Stelle bewegt werden muss. Im Falle von Flash-Speicher werden lediglich elektrische Ladungszustände verändert, um Daten zu speichern.

Somit kann eine SSD willkürlich angeforderte Daten wesentlich schneller lesen oder auch schreiben als eine Festplatte. Muss eine Festplatte mehrere hundert zufällige Zugriffe gleichzeitig abarbeiten, kommt es hier bereits zu System-Flaschenhälsen, gerade wenn die Input- und Output-Befehle zunehmen.

Sequentieller und willkürlicher Datenzugriff

Die Kombination aus Enterprise-SSD und Caching-Software bietet die Grundvoraussetzungen für eine erfolgreiche Flash-Implementierung in Rechenzentren. Die SSD-Hardware-Komponente beeinflusst in aller Regel die Geschwindigkeit, mit der die Anwendung die wichtigen Daten bekommt. Die Festplatte kommt am besten mit einem kontinuierlichen Datenstrom zurecht, der abgearbeitet werden muss. Sequenzielles Lesen und Schreiben sind dementsprechend die Paradedisziplin einer Festplatte.

Flash kann ein Rechenzentrum mit sehr viel zusätzlicher Energie versorgen.
Flash kann ein Rechenzentrum mit sehr viel zusätzlicher Energie versorgen.
(Bild: © Igor Mojzes - Fotolia)

Dabei sollten Daten physikalisch auf der gleichen Platter-Spur abgelegt sein. Da eine ungleichmäßige Datenverteilung auf der Magnetscheibe unausweichlich ist, werden Defragmentierungsprozesse notwendig. Daten werden dabei wieder auf die gleiche Spur geschrieben und Lücken geschlossen, so dass letztlich wieder ein kontinuierlicher Datenstrom mit normaler oder optimierter Geschwindigkeit vorhanden ist.

Vorgaben aus dem Betriebssystem

Moderne Betriebssysteme können mittlerweile komplexe Daten parallel verarbeiten, wodurch wesentlich öfter zufällige Zugriffsmuster auftreten. In genau diesem Bereich werden die Nachteile von Festplatten deutlich sichtbar.

SSDs füllen die Lücke ideal, da sie nicht nur bei zufälligen Zugriffen mehr Leistung bieten. Auch die sequenziellen Durchsatzraten können gegenüber Festplatten gesteigert werden. Zusätzlich reduzieren sich die Zugriffszeiten drastisch, wobei eine SSD zirka 0,02 Millisekunden für einen Zugriff benötigt, während sich eine Festplatte zwischen 3 und 20 Millisekunden gönnt.

Diese extreme Leistungssteigerung gegenüber Festplatten um den Faktor 1000, ist der Grund dafür, weshalb SSDs I/O-Operationen wesentlich schneller erledigen.

Die Gesamtleistung einer IT-Infrastruktur passt sich stets der schwächsten Komponente an. In vielen Fällen handelt es sich hierbei um das Storage-Array, bei dem Festplatten für einen Flaschenhals verantwortlich sind. Solche Unterschiede im Hinterkopf, könnten IT-Manager in erster Konsequenz das HDD-Array im SAN durch SSDs ersetzen.

Ist die Datenbank auch schneller?

Dabei handelt es sich um den einfachsten und schnellsten Lösungsansatz für Lastprobleme, die im Zusammenhang mit einem SAN stehen. Daten werden im Anschluss wesentlich schneller verarbeitet und die komplette IT-Infrastruktur wird beschleunigt.

Verglichen mit einer SSD kann eine HDD lediglich 200 bis 350 Input/Output-Operationen pro Sekunde (IOPS) abarbeiten, während SSDs hingegen zwischen 50.000 und 500.000 IOPS liefern. Aufgrund dieser Tatsache eignen sich Solid State Drives bestens dafür, die SAN-Performance bei kritischen Anwendungen zu steigern.

SSDs sind ein einem Rechenzentrum ein äußerst effektiver Ersatz für Festplatten. Wie kann man jedoch eine Datenbank beschleunigen, die lediglich 50 Prozent ihres Speicherbedarfs im SAN liegen hat?

Indem die Hälfte an Festplatten durch SSDs ersetzt wird, könnten die Daten wesentlich schneller verarbeitet werden. Zudem kann Platz und Strom eingespart werden, da SSDs üblicherweise kompakter sind und eine geringere Leistungsaufnahme aufweisen.

Dieser hybride Ansatz ist für IT-Manager interessant, da so ein vernünftiger Mix aus Leistung, Kapazität und Kosteneffizienz erreicht wird. Darüber hinaus sind mehrstufige (Stichwort „Tiering“) Storage-Systeme in Kombination mit Virtualisierung mittlerweile verbreitet.

Der ‚I/O-BLENDER‘-EFFEKT (Randomifizierung eines Datenstroms)

In Server-Umgebungen werden stets zahlreiche Anwendungen parallel ausgeführt. Zu diesem Zweck setzen IT-Manager auf virtuelle Server, so dass Nutzer gleichzeitig unterschiedliche Lasten generieren können. Es kommt zu unzähligen, simultanen Anfragen ans Storage-System. Daraus entsteht ein konsolidierter Datenstrom, der durch den Virtualisierungs-Layer komplett „randomifiziert“ wird.

Löst sich der Geschwindigkeitskick angsesicht von Datenbank-Anwendungen in Rauch auf?
Löst sich der Geschwindigkeitskick angsesicht von Datenbank-Anwendungen in Rauch auf?
(Bild: © mdurinik - Fotolia)

Tritt dieses Phänomen auf, spricht man vom ‚I/O-Blender‘-Effekt. Alle sequenziellen Datenströme werden in einem großen Datenstrom zusammengefasst, wobei Anfragen nun zufällig ans SAN abgesetzt werden.

Aus diesem Grund erfordert die Server-Virtualisierung eine Infrastruktur, die bei zufälligen Zugriffen äußerst leistungsfähig ist. Exakt diese Anforderung stellt Festplatten vor ein gravierendes Problem, da die physischen Schreib/Lese-Köpfe kontinuierlich von einer Position zur nächsten springen und im Endeffekt den wachsenden Anfragen hinterherlaufen.

Ineffizient und unzureichend

In Zeiten ohne SSD-Hardware, versuchten IT-Operateure das Leistungsungleichgewicht zwischen Servern und Festplatten durch das Hinzufügen von unzähligen Festplatten zu lösen, damit am Ende die IOPS-Performance den Anforderungen gerecht wird. Durch die stückweise SAN-Erweiterung mit Festplatten, steigt auch der Stromverbrauch und Kühlungsaufwand enorm.

Dies bedeutet höhere Gesamtbetriebskosten (TCO). Erschwerend kommt hinzu, dass Festplatten aufgrund der beweglichen Teile über eine begrenzte Lebensdauer verfügen. Dieser Umstand erfordert komplexe Hochverfügbarkeitspläne, um Festplattenprobleme abfangen zu können. Ansonsten steht der stabile Betrieb des SAN auf dem Spiel. Auch damit steigen die Kosten weiter an.

Um den durch Virtualisierung entstandenen ‚I/O-Blender‘-Effekt zu adressieren, mussten IT-Administratoren die Anzahl virtueller Maschinen (VMs) auf jedem Host-Server limitieren. In einigen Fällen, wie beispielsweise Datenbanken und Exchange-Servern, wurden Lasten nicht mehr auf virtuelle Maschinen verteilt, um so das Datenzugriffsmuster zu beeinflussen und damit letztlich eine geringere Randomisierung zu erreichen. Es wurden auch isolierte, nicht-virtualisierte Anwendungen geschaffen, die wiederum Infrastruktur- und Wartungskosten in die Höhe trieben.

I/O zählt mehr denn je

In den vergangenen Jahren wuchsen SAN-Arrays signifikant. Der Grund ist nicht nur auf den gesteigerten Speicherplatzbedarf zurückzuführen, sondern auch auf gesteigerte Anforderungen der I/O-Leistung. Um mit den Laufwerken mit geringer I/O-Leistung ausreichend Performance zu erhalten, setzte man schlicht immer mehr Festplatten ein.

Spätestens seit eine SSD zig Festplatten auf einen Schlag ersetzen kann, änderten sich die Voraussetzungen nachhaltig. Wie bereits früher diskutiert, ist eine SAN-Infrastruktur inklusive Server, Netzwerkverbindungen und Zugriffspunkten nur so schnell, wie das langsamste Element. Dementsprechend ist es nicht immer der effizienteste Ansatz, Festplatten durch SSDs zu ersetzen.

Aus Nutzersicht zählt einzig und allein die Anwendungsleistung. „Wie schnell kann ich auf Anwendungsdaten zugreifen?“. Wie bereits erläutert, könnte sich der Flaschenhals zwischen Server und SAN befinden. Anstatt Festplatten also einfach zu ersetzen, kann ein effizienterer Weg eine zusätzliche SSD für Caching-Zwecke sein, die damit als Beschleuniger funktioniert. Es werden die am häufigsten verwendeten Daten, auch bekannt als „Hot Data“, zwischengespeichert, so dass der Zugriff darauf beschleunigt wird.

Heiß und kalt

Jede Anwendung verfügt über eine Datenteilmenge, auf die oft oder auch regelmäßig zugegriffen wird. Diese Hot Data können auf einer SSD zwischengespeichert werden, die sich im Host-Server befindet. Somit müssen angefragte Daten nicht mehr vom SAN ausgeliefert werden, sondern werden von der SSD im Server bereitgestellt.

Auf diese Art und Weise lassen sich Flaschenhälse beim Zugriff auf ein SAN und Engpässe bei Server-Zugriffen eliminieren. Vergleicht man die I/O-Leistung einer SSD mit der einer Festplatte, wird klar, dass Daten nun wesentlich schneller ausgeliefert werden und das gesamte System ein beschleunigtes Ansprechverhalten aufweist.

Fügt man einer Infrastruktur ein solches Caching hinzu, werden nicht nur die Gesamtinvestitionen reduziert, auch die Performance wird deutlich durch die Flash-Technologie gesteigert. Aus Administratorensicht, lässt sich diese Lösung problemlos in den meisten aktuellen Servern installieren. Zudem handelt es sich derzeit um eine der kosteneffizientesten und wirksamsten Lösungen zur Eliminierung von Engpässen.

(ID:43025485)