Suchen

Was Flash für eine SAN-Umgebung leisten kann, Teil 1

Schlüsselstellen, an denen sich Festplatten durch SSDs ersetzen lassen

Seite: 2/3

Diese extreme Leistungssteigerung gegenüber Festplatten um den Faktor 1000, ist der Grund dafür, weshalb SSDs I/O-Operationen wesentlich schneller erledigen.

Die Gesamtleistung einer IT-Infrastruktur passt sich stets der schwächsten Komponente an. In vielen Fällen handelt es sich hierbei um das Storage-Array, bei dem Festplatten für einen Flaschenhals verantwortlich sind. Solche Unterschiede im Hinterkopf, könnten IT-Manager in erster Konsequenz das HDD-Array im SAN durch SSDs ersetzen.

Bildergalerie

Ist die Datenbank auch schneller?

Dabei handelt es sich um den einfachsten und schnellsten Lösungsansatz für Lastprobleme, die im Zusammenhang mit einem SAN stehen. Daten werden im Anschluss wesentlich schneller verarbeitet und die komplette IT-Infrastruktur wird beschleunigt.

Verglichen mit einer SSD kann eine HDD lediglich 200 bis 350 Input/Output-Operationen pro Sekunde (IOPS) abarbeiten, während SSDs hingegen zwischen 50.000 und 500.000 IOPS liefern. Aufgrund dieser Tatsache eignen sich Solid State Drives bestens dafür, die SAN-Performance bei kritischen Anwendungen zu steigern.

SSDs sind ein einem Rechenzentrum ein äußerst effektiver Ersatz für Festplatten. Wie kann man jedoch eine Datenbank beschleunigen, die lediglich 50 Prozent ihres Speicherbedarfs im SAN liegen hat?

Indem die Hälfte an Festplatten durch SSDs ersetzt wird, könnten die Daten wesentlich schneller verarbeitet werden. Zudem kann Platz und Strom eingespart werden, da SSDs üblicherweise kompakter sind und eine geringere Leistungsaufnahme aufweisen.

Dieser hybride Ansatz ist für IT-Manager interessant, da so ein vernünftiger Mix aus Leistung, Kapazität und Kosteneffizienz erreicht wird. Darüber hinaus sind mehrstufige (Stichwort „Tiering“) Storage-Systeme in Kombination mit Virtualisierung mittlerweile verbreitet.

Der ‚I/O-BLENDER‘-EFFEKT (Randomifizierung eines Datenstroms)

In Server-Umgebungen werden stets zahlreiche Anwendungen parallel ausgeführt. Zu diesem Zweck setzen IT-Manager auf virtuelle Server, so dass Nutzer gleichzeitig unterschiedliche Lasten generieren können. Es kommt zu unzähligen, simultanen Anfragen ans Storage-System. Daraus entsteht ein konsolidierter Datenstrom, der durch den Virtualisierungs-Layer komplett „randomifiziert“ wird.

Löst sich der Geschwindigkeitskick angsesicht von Datenbank-Anwendungen in Rauch auf?
Löst sich der Geschwindigkeitskick angsesicht von Datenbank-Anwendungen in Rauch auf?
(Bild: © mdurinik - Fotolia)

Tritt dieses Phänomen auf, spricht man vom ‚I/O-Blender‘-Effekt. Alle sequenziellen Datenströme werden in einem großen Datenstrom zusammengefasst, wobei Anfragen nun zufällig ans SAN abgesetzt werden.

Aus diesem Grund erfordert die Server-Virtualisierung eine Infrastruktur, die bei zufälligen Zugriffen äußerst leistungsfähig ist. Exakt diese Anforderung stellt Festplatten vor ein gravierendes Problem, da die physischen Schreib/Lese-Köpfe kontinuierlich von einer Position zur nächsten springen und im Endeffekt den wachsenden Anfragen hinterherlaufen.

Ineffizient und unzureichend

In Zeiten ohne SSD-Hardware, versuchten IT-Operateure das Leistungsungleichgewicht zwischen Servern und Festplatten durch das Hinzufügen von unzähligen Festplatten zu lösen, damit am Ende die IOPS-Performance den Anforderungen gerecht wird. Durch die stückweise SAN-Erweiterung mit Festplatten, steigt auch der Stromverbrauch und Kühlungsaufwand enorm.

(ID:43025485)