Mobile-Menu

Die Meilensteine der Virtualisierung von Speichersystemen

In der Speichervirtualisierung steckt noch viel Zündstoff

Seite: 2/3

Anbieter zum Thema

Das FC-Protokoll weckt Phantasien

Immerhin stellte Big Blue Mitte 1997 die „Seascape“-Storage Enterprise Architecture vor, die auf einem zentralen Speicher-Server basierte.

Er sammelte und verteilte die Informationen von Mainframe-, Unix- und PC-Rechnern und speicherte sie über PCI-Interfaces in den Raid-SSA-Speichern der IBM sowie auf Bandbibliotheken und die zur Langzeitarchivierung damals beliebten optischen Speicher. Immerhin wurde damit die Trennung von Servern und Speichern erreicht.

Ebenfalls 1997 sorgte der englische Analyst Robin Bloor, Chef von Bloor Research, für Aufruhr in der Client-Server-Community. Er forderte nämlich eine Abkehr von Client/Server und stattdessen die Bereitstellung „eines zentralen Rechnerkomplexes für alle Daten und Prozesse“.

Für ihn sollte das Netzwerk ein Ressourcenpool sein, was aber nur mit „virtuellen zentralen Rechnern“ möglich sei. Erst zehn Jahre später, so scheint es, sollte der Mann Recht bekommen.

Speicherzentrisches Konzept bei EMC

Bis dahin beschäftigte man sich vor allem mit dem Aufbau von Speichernetzen und der Trennung der Speicher von den Servern. EMC, Herausforderer der IBM bei Mainframe-Speichern, stellte das „Enterprise Storage Network“ (ESN) vor, das dank der Software „Volume-Logix“ die Datenkonsolidierung in heterogenen Rechnerlandschaften bewältigen sollte.

Für EMC war diese Lösung besonders wichtig, da die Company über keine eigene Rechner verfügte und folglich möglichst viele Plattformen bedienen musste. Unerwartete Konkurrenz bekam EMC zur Jahrtausendwende vom ehemaligen Mainframe-Hersteller Hitachi.

Die Japaner hatten das Rechner-Geschäft aufgegeben, aber die Expertise im Speicherbereich ausgebaut. Mit dem Mittelklasse-Array „Thunder“ (Donner) und dem Highend-Speicher „Lightning“ (Blitz) sorgte die neue Company Hitachi Data Systems HDS schnell für Furore dank modernster Technik und den besten Transfer- und Durchsatzraten.

Wer virtualisiert? Host, Speicher, Fabric oder Netzwerk?

IBM und EMC erhielten aber nicht nur Druck aus dem Lager der Block-basierenden Datenspeicher, sondern auch von den ins LAN eingeklinkten File-basierenden Speicher-Arrays. Bei den NAS-Speichern entwickelte sich Network Appliance zum Platzhirschen.

Mit dem „Direct Access File System“ kommunizierten dessen Filer unabhängig vom Rechnerbetriebssystem mit den Anwendungen, was die Systeme nicht nur beschleunigte, sondern auch die Anzahl der notwendigen Datenkopien reduzierte.

Es entwickelte sich eine Art Grabenkrieg über die Frage, welche Speicherart –NAS oder SAN - die günstigere sei. Eine Lösung brachte etwa MTI mit den „Vivant“-Systemen, die beide Techniken in einem Gerät vereinten.

Ebenfalls strittig ist bis heute die Frage, wo im SAN virtualisiert werden soll: In den Datenpfaden zwischen Server und Speicher (In-Band), neben dem Datenpfad (Out-of-Band), im Host, auf dem Speichersystem oder im Switch. EMC hält mit „Invista“ bis heute an der Out-of-Band-Lösung fest, während die IBM und Datacore In-Band bevorzugen. Veritas, inzwischen Symantec, virtualisierte den Speicher auf dem Server und HDS ist seit Jahren erfolgreich mit Tagmastore respektive seiner Universal Storage Plattform (USP), die den Storage Controller zum Zentrum der Speichervirtualisierung macht.

weiter mit: Nicht Festplatten, Blöcke lassen sich virtualisieren

(ID:2042084)