Commodity muss als Plattform taugen Für Anwender bringt der HDS-Lösungs-Stack entscheidende Vorteile
Wie macht man sich als Unternehmen die Flash-Entwicklung zunutze, ohne in Sackgassen abzudriften? Ist die Zukunft hyperkonvergent? Und sollten Anwender alles auf die Flash-Karte setzen? Im Gespräch mit Storage-Insider zeigt Jürgen Krebs, dass sich bei HDS die strategische Ausrichtung des Unternehmens drastisch geändert hat.
Anbieter zum Thema

HDS kann auf jedem IT-Level mithalten, allerdings hat man etwas gegen die Simplifizierung, die heutzutage gerne in Ratschlägen endet wie: "Flash löst alle Zugriffsprobleme ihrer Anwendung" oder "So einfach wie mit Hyperkonvergenz war die IT noch nie".
"Solche Ratschläge werden der komplexer werdenden IT leider nicht gerecht", behauptet Jürgen Krebs . Aus Sicht von HDS geht es darum, dass die installierte Infrastruktur mit wenigen Handgriffen ebenso für die klassische IT wie auch für die analytischen Echtzeitprobleme umkonfiguriert werden kann, ohne dass immense Investitionen getätigt werden müssen.
Storage-Insider: Alle reden von Flash. Wo stehen wir bei der Flash-Technik?
Jürgen Krebs: Man muss zunächst einmal zwischen den reinen Speicherchips und den fertigen Produkten unterscheiden. Bei Hitachi sprechen wir in dem Zusammenhang auch nicht von SSDs, sondern von Flash Module Drives oder kurz FDM.
Dabei handelt es sich um NAND-Flash-Module mit von uns entwickelten Controllern – und von deren Qualität hängt letztlich die Performance unserer Produkte ab. Bei den Flash Chips bedienen wir uns am Markt, was uns letztlich mehr Flexibilität und Unabhängigkeit verleiht.
Die von uns entwickelte Controllereinheit steuert jedes unserer bis zu 14 TByte großen Module und ist optimal in unser Speicherbetriebssystem SVOS (Storage Virtualization Operating System) integriert. Das hat zahlreiche Vorteile: Wir können unter anderem höhere Komprimierungsraten erzielen, die Lebensdauer des NAND Flash erhöhen und die Möglichkeiten zur Fehlerkorrektur verbessern.
Ist die Flash-Technik nicht schon extrem ausgereizt?
Krebs: Wir gehen davon aus, dass in der Flash-Technik noch einiges an Potenzial steckt, beispielsweise bei der Anzahl der Layer in den 3D-Produktionsverfahren. Dass man zurzeit nur wenig Fortschritte bei den NAND-Bauteilen sieht, liegt aber nicht nur am Flash selbst, sondern auch an den IT-Umgebungen.
So wird z. B. die zur Verfügung stehende Bandbreite von Flash derzeit von kaum einem Server und dementsprechend auch nicht von der Software genutzt. Und auch die Rechenzentren sind bei Infrastruktur und Bandbreite noch nicht auf dem Niveau, das Flash schon jetzt bietet.
Was können HDS-Flash-Arrays besser als die anderen?
Krebs: Bei HDS gibt es einen eigenen Entwicklungsbereich für alles, was in unserem Konzern mit Daten zu tun hat. Unser Mutterkonzern Hitachi beschäftigt weltweit etwa 330.000 Mitarbeiter in über 1.000 Firmenbereichen – davon arbeiten über 16.000 Kollegen bereits im IoT-Umfeld.
Im Konzern werden auch spezifische Chips für Hitachi Data Systems entwickelt, die uns in die Lage versetzen, unabhängig von anderen Lieferanten das Design innovativer Produkte vorzugeben und nach Marktanforderungen auch ändern zu können.
Bei Industriestandards wie DRAM oder NAND-Modulen nutzen wir das Know how der Lieferanten, die in unseren Plattformen verwendeten Flash-Produkte sind also Eigenentwicklungen auf Basis performanter Speicherchips von externen Zulieferern.
Unsere FMDs sind durch mehr als 60 Patente geschützt, sie sind deutlich langlebiger und leistungsstärker als klassische SSDs. Und kein Anbieter am Markt besitzt mehr Patente zur Flash-Technologie als HDS.
Wie muss man sich das praktisch vorstellen? HDS produziert letztlich eigene SSDs?
Krebs: Ganz so einfach ist es nicht. Unsere FMDs sind über anwendungsspezifische integrierte Schaltungen (ASICs) in der Lage, jeden beliebigen NAND-Baustein zu integrieren. Wir beschränken uns aber auf wenige, namhafte Hersteller.
Die FMDs interagieren im Prinzip mit der PCIe-Schnittstelle in unseren Plattformen. Bei uns sind sie aber das Herzstück von hochperformanten Storage-Modulen, die nahtlos in unsere Speicherplattformen integriert sind.
In Zukunft werden immer häufiger geswitchte PCIe-Netzwerke geteilten und blitzschnellen Zugriff auf Speicher und andere Peripherie ermöglichen. Und wir sind mit unserer Strategie in der Lage, die Performance von FMDs vom Netzwerk zu den Servern zu bringen.
Ist das für einen Weltkonzern wie Hitachi nicht ein bisschen wenig, bei Flash nur mitzuschwimmen?
Krebs: Das sehe ich nicht als "mitschwimmen". Wir nutzen zugekaufte Speicherkomponenten (Festplatten, D-RAM, NAND-Bausteine), das Design und die Produktion erledigen wir aber in Eigenregie . Wir sind in den letzten Jahren davon abgekommen, alles selbst machen zu wollen.
Deshalb wurde auch vor einigen Jahren unsere Festplattensparte HGST an Western Digital verkauft – und dies lange bevor sich der Flash-/ SSD-Trend abzeichnete. Damals stieß der Verkauf auf großen Widerstand, aus heutiger Sicht war das eine visionäre Entscheidung.
Ähnliche IT-Komponenten von mehreren Herstellern zeitgleich und konkurrierend entwickeln zu lassen, ist wenig sinnvoll. Wir überlegen uns daher sehr genau, welche Komponenten von uns entwickelt werden und welche wir zukaufen können, denn auf diese Weise können wir dem hohen Qualitätsanspruch unserer Kunden wesentlich zeitnaher und zielgerichteter nachkommen.
Heute bieten wir ein durchgängiges Portfolio vom Server bis zur Speicherplattform und vom Management-Softwarepaket bis zum VMware Steuer Plug-In. Damit sehe ich uns in einer Führungsrolle und nicht als Konzern, der "nur mitschwimmt".
Sind hyperconverged Plattformen nicht schon die Erfüllung dieses Ziels?
Krebs: HDS hat bei den Speichersystemen eine Core-Edge-Struktur etabliert und mit der Unified Compute Platform (UCP) eine Plattform für VMware-, SAP-, Oracle-und Microsoft-Umgebungen geschaffen. Inzwischen haben wir daneben unser Hyperconverged Portfolio mit der Hyper Scale-Out Platform (HSP) etabliert.
Wir wollen aber nicht – wie andere Hersteller – immer näher an den Prozessor rücken, sondern Storage und Compute für die jeweiligen Anwendungsplattformen optimieren. Wir wollen im hyperkonvergenten Bereich eine "Commodity-of-the-Shelf"-Plattform entwickeln, die über unsere Offload-Karten erst mit der benötigten Beschleunigung "beseelt" wird.
Das kann eine Appliance sein oder auch ein modulares System. Wichtig ist, dass ein Rechenzentrumsleiter die Plattform flexibel und mit wenigen Handgriffen an SAP, Hyper-V oder VMware anpassen kann, so wie das mit UCP bereits möglich ist.
Das heißt, HDS will auf die Lösungsschiene?
Krebs: Selbstverständlich! In Zukunft geht es doch darum, Lösungen und vor allem konsumierbare Services zu entwickeln, die aus "Big Data" wertvolle Informationen liefern oder mit den Milliarden Sensoren des Internets der Dinge (IoT) etwas Sinnvolles steuern können.
Angesichts des riesigen Innovationspotenzials wäre es ein Fehler, wenn Hitachi zu viel Energie in Hardware stecken würde, anstatt die größeren Teile der unternehmenseigenen Kräfte auf das neue Ziel zu bündeln.
Etwas konkreter: Wir als HDS sind nicht mehr der reine Storage-Anbieter, als den uns viele immer noch wahrnehmen. Hitachis CTO Hubert Yoshida hat unserer SVOS (Storage Virtualization Operating System) schon immer in eine Entwicklungsrichtung treiben lassen, dass es auch in einer virtuellen Maschine laufen kann. So sind wir nun jederzeit in der Lage unsere Software auch direkt mit den Anwendungen zu verbinden.
Gut, das wäre jetzt die klassische IT, da fehlt allerdings noch die Cloud IT, die den Unternehmen eine skalierfähige projektbezogene Arbeitsweise ermöglichen soll. Und letztlich fällt bei dieser bimodalen Sichtweise die analytische IT raus, die unserer Einschätzung nach Storage und Compute sehr eng verzahnen müsste.
Krebs: Aus Sicht der Digitalisierung aller Prozesse erscheint es auf den ersten Blick erstrebenswert, beispielsweise jedes Nahrungsmittel mit einem RFID-Code auszustatten und dann den Weg bis zum endgültigen Verzehr zu verfolgen.
Das ist aber nicht der Weg, den Hitachi beschreiten will. In der Hitachi Insight Group wird ein schon aktives Modell namens Lumada verfolgt. Dabei geht es um die Verbindung von IT und OT (Betriebstechnologie) zum IOT.
Herausforderung ist die Integration jedes Bereichs über REST-APIs, die wohl durch ihren einfachen Datenzugriff zukünftig der Standard sein werden. Datenbanken und Anwendungen lassen sich in diesen Stack leicht integrieren, wie unser aktuelles Smart-City-Projekt mit der Stadt Kopenhagen eindrucksvoll unter Beweis stellt.
Kopenhagen hat sich hier das Ziel gesetzt, bis 2025 CO2-neutral zu sein. Das geht nur als gemeinschaftliches Projekt und ist eine riesige Herausforderung an alle Teilnehmer, da diese nicht zuletzt einer gewissen Überwachung ihrer Bewegungsaktivitäten zustimmen sollen. Eine erste Erkenntnis ist jedoch schon jetzt, dass dazu nicht alles digitalisiert werden muss.
Zurück zum Storage. Gibt es die alte Speicherpyramide noch, wonach auf der höheren Stufe (Tier 1) 20 Prozent der Daten, auf der nächst niedrigeren Stufe (Tier 2) 80 Prozent liegen?
Krebs: Das klassische Speichermodell existiert nicht mehr, beim Speicher wird alles auf den Kopf gestellt. Bei unseren großen Kunden werden mittlerweile Consumption-Modelle praktiziert, die den benötigten hohen Flexibilitätsgrad des Kunden unterstützen.
Der Lieferant vereinbart SLAs und darauf verlassen sich die Käufer wie deren Kunden. Der Preis und die Preiserosion stehen fest und sind damit über die Laufzeit fest kalkulierbar. Als Unternehmen verlasse ich mich darauf, dass der gewählte Partner sein Geschäft versteht.
Am Ende wird es ein dynamisches Tiering-Modell geben, so dass meine Daten SLA-konform gespeichert sind, ich als Anwender aber den vollen Zugriff auf alle gespeicherten Informationen in allen Tiers habe.
Hört sich nett an, aber wer könnte sich so ein Speichermodell mit ganz viel Flash-Anteil denn leisten?
Krebs: Das ist genau der Punkt: Flash ist teuer und muss sich verargumentieren lassen. Das geht nur unter der Voraussetzung, dass der Nutzungsgrad von Flash immer bei 100 Prozent liegen muss. Das wäre jedoch schwierig nachzuweisen, wenn man nur mal eben ein kleineres Testsystem in sein Rechenzentrum stellt.
Der Geschwindigkeitsvorteil von Flash wird auch nicht überall und immer benötigt. Meistens wird es derzeit so praktiziert, dass der teure Speicher der Performance kritischer Anwendungen auf die Sprünge helfen soll. Sollten die Flash-Preise auf das Niveau von Harddisks fallen, gibt es für solche Abwägungen jedoch keine Basis mehr.
Dann zählt nur noch die Erfüllung von SLAs. Unsere Kunden nutzen unsere Hitachi Command Suite und unsere Plug-Ins zum Managen ihrer gesamten Umgebungen, vom Hypervisor über die Server bis zum Speicher.
Unsere Plattformen erlauben auch die gemischte Verwendung von Flash/ FMDs, SSDs und Harddisks, damit lassen sich wesentliche Nachteile externer Flash-Speicher übergehen. Ein Kunde nutzt dann zu 100 Prozent seine Flash-Investition und unsere Intelligenz in den Systemen ermöglicht das Verschieben von Daten in preiswertere Tiers im Millisekundenbereich.
(ID:44341761)