Kommentar von Jürgen Urbanski zu All Flash Arrays

Flash Memory Arrays revolutionieren das Daten-Management

13.06.14 | Autor / Redakteur : Jürgen Urbanski / Nico Litzel

Vergleich der Anschaffungskosten pro Gigabyte: Mittlerweile sind All Flash Arrays bei etwa drei US-Dollar pro Gigabyte angekommen, während plattenbasierter Performance-Speicherplatz bei vier und Kapazitäts-Storage bei einem US-Dollar liegen.
Vergleich der Anschaffungskosten pro Gigabyte: Mittlerweile sind All Flash Arrays bei etwa drei US-Dollar pro Gigabyte angekommen, während plattenbasierter Performance-Speicherplatz bei vier und Kapazitäts-Storage bei einem US-Dollar liegen. ( Grafik: Pure Storage )

In meiner Rolle als Cheftechnologe bei der T-Systems war ich in der glücklichen Lage, täglich den Puls der Innovation zu fühlen und eng mit den besten Technologie-Anbietern im Silicon Valley zusammen zu arbeiten. Mein Team von 62 Architekten hatte den Auftrag, weltweit für unsere Kunden Mehrwert durch Innovation zu schaffen.

Für Speicherlösungen ist Flash Memory die größte Innovation seit den 90er-Jahren, als EMC mit Storage Area Networks (SAN) und NetApp mit Network Attached Storage (NAS) jeweils ganz neue Kategorien am Markt etablierten. Flash Memory ist dabei weitaus mehr als nur ein neues Feature, sondern stellt einen grundlegenden Wandel bei der Datenhaltung dar, der eine ähnliche Tragweite besitzt wie das Open Source Framework Hadoop, mit dem sich rechenintensive Prozesse mit großen Datenmengen effektiver und preiswerter bewältigen lassen.

Die Auswirkungen bringen eine fundamentale Transformation im Daten-Management großer Unternehmen: Flash Memory etabliert sich zunehmend als Performance Tier in einer modernen Datenarchitektur.

Hohe Kapazität oder hohe Performance?

Große Endverbraucher wie die Deutsche Telekom legen ihre Daten traditionell auf zwei Arten von Speicherlösungen ab. Die meisten Daten müssen möglichst billig gespeichert werden, um die Kosten pro Gigabyte zu minimieren. Früher erfolgte diese Speicherung meist auf Bändern. Inzwischen haben sich jedoch SATA-Festplatten mit hoher Speicherkapazität durchgesetzt. Das ist das sogenannte Kapazitäts-Tier.

Einige Daten müssen jedoch so gespeichert werden, dass der Zugriff möglichst schnell erfolgen kann. Ziel ist es, die Kosten pro Input/Output Operations Per Second (IOPS) zu minimieren. Hierzu werden schnelle Fibre-Channel- oder SAS-Platten benutzt, die 10.000 oder 15.000 Umdrehungen pro Minute liefern.

Viele sind mit Moore’s Law vertraut, wonach sich das Preis-Leistungs-Verhältnis in der Informationstechnologie alle 18 bis 24 Monate verdoppelt. Das sollte es einem Unternehmen ermöglichen, ein jährliches Datenwachstum von 40 bis 50 Prozent mit etwa konstantem Budget zu bewältigen.

Ergänzendes zum Thema
Der Autor:

Inhalt des Artikels:

»1 »2 »3 nächste Seite

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Spamschutz 

Bitte geben Sie das Ergebnis der Rechenaufgabe (Addition) ein:
Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42697767) | VBM-Archiv, Grafik: Pure Storage

Themen-Newsletter Update Storage Hardware abonnieren.

Hat Ihnen dieser Artikel gefallen?
Wenn Sie wichtige Nachrichten in Zukunft nicht verpassen möchten, dann versorgen wir Sie über unseren Themenkanal-Newsletter gerne direkt mit den aktuellsten News und Fachbeiträgen aus diesem Themenumfeld. Jetzt abonnieren!

* Ich bin mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung und AGB einverstanden.
Spamschutz:
Bitte geben Sie das Ergebnis der Rechenaufgabe (Addition) ein.