Mobile-Menu

Rainer Graefen im Gespräch mit Hu Yoshida, CTO von Hitachi Data Systems

Scale-up oder Scale-out ist eine Grundsatzfrage

Seite: 2/2

Anbieter zum Thema

Modularer Storage skaliert schwerer

Mit seiner Strategie, die Datenhaltung mit einem leistungsfähigen Scale-up-System zu bewerkstelligen, ist Hitachi viele Jahre gut gefahren. Die Entscheidung dafür liegt viele Jahre zurück, als die Speichervirtualisierung noch in den Kinderschuhen steckte.

Damals stritt man intensiv darüber, ob die Virtualisierung auf dem Host, im Netzwerk oder im Speicher stattfinden sollte. Der damalige Cluster- und Softwaregigant Veritas setzte auf den Host und verlor alles.

Hitachi entschied sich damals für die Virtualisierung auf dem Speichersystem und ist bis heute damit erfolgreich. Dasselbe gilt allerdings seit einiger Zeit für die Speichervirtualisierung im Netzwerk, wie Hewlett-Packard das heute mit der P4000, ehemals Lefthand, vorantreibt.

Für CTO Yoshida ist die enge Abstimmung innerhalb des Scale-up-Systems mit einer Netzwerkkopplung nicht erzielbar. Jede Steuerung, wie zum Beispiel die Replikation von Speicherknoten, die im Netzwerk angreift, wird selbst zum Engpass.

Die Folge: eine Spirale wird in Gang gesetzt. Erst muss das Netzwerk schneller werden und dann muss die Appliance schnellere Prozessoren bekommen.

Mischkonzept

In einer Scale-Up-Architektur sitzt das Netzwerk in Form eines Crossbar-Switches im System und arbeitet mit Transferraten, die im Netzwerk (noch) nicht preiswert umsetzbar sind.

„Die Hochtechnologie des Scale-ups ist teurer als ein 2-Knoten-Cluster, dessen sind wir uns bewusst“, sagt Yoshida. „Das Resultat unserer Strategie ist nicht zuletzt aus Kostengründen ein gemischtes Storage-Konzept, das Scale-up und Scale-out vereint. Nicht jeder braucht höchste Performance auf dem Tier-1, unverzichtbar ist allerdings höchster Datenschutz für alle Daten. Das erreichen wir, indem wir über unser Scale-up-Frontend beliebige Scale-Out-Speichersysteme virtualisieren.“

Der Anwender muss dann abwägen, ob er für die optional in der Zukunft benötigte höhere Funktionalität etwas mehr Geld auf den Tisch zu legen bereit ist, als er das aktuell für modulare Speichersysteme tun müsste.

Integration der Compute-Blades

Eine Entwicklung ist im Augenblick für Außenstehende schwer abschätzbar. Hu Yoshida nennt es den perfekten Sturm. Perfekt in dem Sinne, das es die Steigerungsform von „worst case“ ist, dem schlimmsten Fall, der überhaupt eintreten kann.

Der perfekt Sturm wäre auf Speicher bezogen, die Prozessorleistung steigt in ungeahnte Dimensionen. Hundert Kerne sind absehbar und jeder kann zig virtuelle Maschinen bedienen. Und alle wollen mit denselben Daten auf demselben Speichersystem arbeiten.

„Wer sich hier auf die Serverleistung konzentriert, verkennt die Komplexität“, warnt der CTO. „IBM hat mit seinen Mainframes vorgemacht, wie man Rechner, Kommunikationskanäle und Speicher ausbalanciert. Diese Balance gilt es auch bei einem offenen System umzusetzen, das aus einer heterogenen Mischung von Server, Netzwerk und Storage besteht.

Da wir diesen Weg nicht gehen, fällt es uns leichter, unsere Compute-Blades, die bisher vor allem in Japan eingesetzt werden, eng mit dem Firmware-Code in unserem Speichersystem zu verbinden. Wir können so die unvermeidliche Automatisierung wesentlich effizienter umsetzen und werden das in diesem Jahr auch noch in unserer Unified Compute Platform zeigen.“

(ID:2050804)