Paradigmenwechsel auch beim Speicher in Sicht? Mit einer Standard-Software will Red Hat alle Speichersysteme auf Linie bringen

Autor / Redakteur: Kriemhilde Klippstätter / Rainer Graefen

Was bei Servern mittlerweile gang und gäbe ist, fehlt im Speicherbereich weitgehend: die Standardisierung auf Basis von Industriestandards. Open-Source-Anbieter Red Hat will diesen Mangel beseitigen.

Firma zum Thema

(Grafik: Red Hat)

Das Erfolgsrezept der Server, wo leistungsfähige x86-Architektur mit Virtualisierungstechniken gepaart zu besserer Maschinenauslastung und größerer Flexibilität führte, will die Company nun auf die Speicher übertragen. „Das Ziel sind flexiblere Lösungen mit mehr Intelligenz zu einem wesentlich günstigeren Preis“, fasst Gerald Sternagl, bei Red Hat als EMEA Business Unit Manager Storage tätig, die neue Architektur von Storage-Systemen zusammen.

Denn dort liegen derzeit die größten Hindernisse für eine schnelle IT: Keine hoch optimierte Umgebung, nur moderate Kapazitätssteigerungen, kaum Geschwindigkeitszuwächse und auch der Durchsatz hat sich nicht wesentlich verbessert. „Das führt dazu, dass Storage das schwächste Glied im Rechenzentrum darstellt“, analysiert Sternagl.

Bildergalerie
Bildergalerie mit 7 Bildern

Storage-Controller sollen kein Eigenleben mehr führen

Als einen Hauptgrund für die Misere sieht er das Fehlen eines Standardbetriebssystems für Storage: „Proprietäre Betriebssysteme und teilweise proprietäre Hardwaretechnologien führten in der Vergangenheit zu teuren und unflexiblen Lösungen.“ Das gilt vor allem für den Midrange-Bereich.

Im Highend gibt es noch Applikationen wo ein herkömmliches Storage Area Network (SAN) Vorteile bietet, etwa wenn sehr hohe Durchsatzraten und niedrige Latenzzeiten - also eine schnelle Reaktion der Speicher - gefordert sind.

Am unteren und mittleren Leistungsende tummeln sich im SAN seiner Meinung nach Speichersysteme, die „relativ unflexibel und unfertig“ sind und nur Block-basierende Daten speichern. Das galt zumindest so lange, bis NAS-Systeme auftauchten.

Der Erfolg von Netapp zeige, dass NAS-Technik im Midrange-Bereich dem SAN „das Wasser abgegraben habe“. Dort etabliert sich derzeit gerade verstärkt Software-defined Storage. „Das ist noch eine Stufe besser als NAS“, schwärmt Sternagl, weil die Preise nochmal sinken und dafür im Vergleich zu NAS mehr Flexibilität und Skalierbarkeit erreicht werde.

Derzeit leidet die Mittelklasse-IT darunter, dass sie Speicherinseln betreuen muss: Hier Server mit eingebauten Festplatten, dort ein Raid-Speicher, da drüben ein NAS-Head mit ein oder zwei Speicherboxen. Red Hat hofft jetzt, mit einem Softwareansatz und der Standardisierung der Hardware, die Insellösungen verschwinden zu lassen und insgesamt einen Paradigmenwechsel im Speicherbereich zu erreichen.

Nichts Geringeres als ein Paradigmenwechsel angepeilt

„Die Zukunft im Speicherbereich liegt auf einer Standard-Software, die die Informationen automatisch verteilt und auf einer Storage-Plattform zur Verfügung stellt“, beschreibt der Manager die neue Architektur. Damit erreiche man zuerst mehr Flexibilität und verhindere die Bildung von Speicherinseln und die Verschwendung der isolierten Kapazitäten.

(ID:42638913)