Mobile-Menu

Definition Was ist ein All-Flash-Array?

Autor / Redakteur: Diplom-Betriebswirtin Tina Billo / Rainer Graefen

All-Flash-Arrays sind anstelle klassischer rotierender Festplatten ausschließlich mit nichtflüchtigem NAND-Flash in Form von SSDs oder proprietären Modulen bestückt. Der Verzicht auf mechanische Bauteile macht sie robuster, zudem warten sie mit einer hohen Performance und kurzen Antwortzeiten auf.

Anbieter zum Thema

Auf eine hohe I/O-Leistung bei gleichzeitig niedriger Latenz angewiesene Workloads zählen zu den Anwendungsfällen, für die AFAs prädestiniert sind.
Auf eine hohe I/O-Leistung bei gleichzeitig niedriger Latenz angewiesene Workloads zählen zu den Anwendungsfällen, für die AFAs prädestiniert sind.
(Bild: IBM)

Mit Flash ausgestattete häufig auch als Solid-State-Arrays oder kurz SSAs bezeichnete All-Flash-Arrays (AFAs) schreiben und lesen große Datenmengen gegenüber rein HDD-basierten oder hybriden Storage-Systemen deutlich schneller.

Heute erhältliche Lösungen lassen sich zwei Kategorien zuordnen: Auf Festplatten ausgelegte und später für Flash modifizierte Speicher oder Geräte, deren Architektur von Grund auf für die schnellen Medien konzipiert wurde und bei denen häufig eigenentwickelte Flash-Module zum Einsatz kommen.

Punktlösungen für spezielle Einsatzzwecke

All-Flash-Arrays (AFAs) der ersten Generation rechneten sich aufgrund der hohen Anschaffungskosten nur für spezifische Anwendungsfälle. So kamen sie entweder im Zusammenspiel mit einzelnen transaktions- oder rechenintensiven datenbankgestützten Anwendungen, darunter OLTP, OLAP, RDBMS oder Data Warehouses zum Einsatz. Oder aber in Umgebungen mit beträchtlichen Workload-Schwankungen, zum Beispiel in Virtual-Desktop-Infrastrukturen (VDI).

Gegenüber Festplatten schnitten die in AFAs der ersten Stunde verbauten Flash-Bausteine allerdings in punkto Kapazität, Funktionsreichtum und Zahl der verkraftbaren Schreib- und Löschzyklen schlechter ab.

Auf diesen Gebieten wurde dank neuer Chip-Designs wie 3D-NAND und Fertigungstechniken, bei Speicherzellen in punkto Schreibfestigkeit erzielter Fortschritte sowie überarbeiteter oder neu entwickelter Storage-Controller aufgeholt. Ebenso gehören Datenreduktionstechniken wie Deduplizierung, Komprimierung und Thin Provisioning sowie Enterprise-Funktionalitäten, zum Beispiel Snapshots, Clones, RAID, Verschlüsselung, Quality-of-Service-Features oder die Unterstützung von APIs mittlerweile meist zum Standard.

Auf dem Weg zum Allrounder

Kapazität und Zuverlässigkeit angehend stehen AFAs somit kaum noch hinter klassischen Systemen zurück. Für einen weiteren Geschwindigkeitsschub sorgt darüber hinaus das NVMe- (Non-Volatile Memory Express) Protokoll, dass die direkte Ansteuerung von SSDs oder reinen NAND-Flash-Modulen über den PCIe-Bus ermöglicht. So sollen NVMe-basierte Arrays bereits eine Leistung von mehreren Millionen IOPS bei einer unter 200 Mikrosekunden liegenden Latenz bieten können.

Insofern eignen sich AFAs nicht mehr nur als dedizierte Speicherplattformen für einzelne Applikationen oder geschäftskritische primäre Workloads. Vielmehr bieten sie sich für die Konsolidierung eines breiteren Spektrums an Unternehmensanwendungen und -services an. DCIG-Analysten Ken Clipperton erachtet eine mandantenfähige Architektur, Multiprotokollunterstützung, High-Speed-Connectivity-Schnittstellen, integrierte Quality-of-Service-Funktionen und zertifizierter Support für Enterprise-Applikationen als nötige Voraussetzungen.

Finanzielle Abwägung

Dennoch sind AFAs aus Sicht vieler IT-Entscheider weiterhin zu teuer, um für primäre Workloads eingesetzte traditionelle Storage-Systeme abzulösen. Dieses Argument verliert bei einer Gesamtkostenbetrachtung (TCO) gemäß IDC an Berechtigung. Den Ansatz lediglich die Bruttopreise pro GB (deren Schere sich ihren Prognosen zu Folge in den nächsten Jahren ohnehin schließen wird) als einzige Entscheidungsgrundlage heranzuziehen, halten sie für veraltet.

Vielmehr sollten Kennziffern wie die Kosten pro genutztem GB und pro IOPS sowie sekundär realisierbare wirtschaftliche Vorteile mit in die Überlegungen einfließen. Hierzu zählt beispielsweise, dass sich die Performance-Anforderungen von Anwendungen mit weniger Geräten bedienen und die Zahl an Servern reduzieren lässt. Ergebnis seien Einsparungen beim Kühlungsaufwand, Stromverbrauch und Platzbedarf sowie den Softwarelizenzen. Als weitere Pluspunkte führen sie eine einfachere Administration sowie niedrigere Support-Kosten an.

All-Flash-Arrays für alles?

Der Einsatz von AFAs kann sich laut IDC daher selbst für sekundäre Speicheranwendungen auszahlen, bei denen sich durch den höheren erzielbaren Durchsatz und die bessere Bandbreite für das Unternehmen geschäftliche Vorteile (höhere Produktivität, bessere Reaktionsfähigkeit, mehr Umsatz) ergeben.

Nichtdestotrotz käme es auch künftig auf die Workloads an. In Cold-Storage-Umgebungen oder beim unregelmäßigen Schreiben ohne Latenzanforderungen für den Datenzugriff seien die Kosten schwierig zu rechtfertigen. Dies gelte auch dann, wenn die Kapazitätsanforderungen niedrig seien – wirtschaftliche Effekte machten sich erst bei Systemen mit über 80 Terabyte spürbar und maximale Ergebnisse ab mehreren Hundert Terabyte erreichen, so Storage Research Director Eric Burgener.

Letztlich käme es nach wie vor darauf an, dass Anwendungen von ihnen geforderte Daten zur richtigen Zeit und Stelle mit den jeweils passenden Antwortzeiten zur Verfügung stehen. Aufgrund ihrer Datenmuster und Zugriffshäufigkeit benötigten jedoch viele Applikationen die Geschwindigkeit von Flash gar nicht. Hier reichten kostengünstigere traditionelle Speichersystemen und die Verwendung von Auto-Tiering-Mechanismen aus.

(ID:45039827)