Interview mit Axel Koester, Keynotespeaker auf der Storage Technology Conference 2016 Alles ist gut, was mehr Storage-Automation ermöglicht
Storage wird Commodity, hieß es schon vor zehn Jahren. Jetzt kommen so langsam Software-defined Storage, Openstack und nicht zuletzt die enge Verzahnung von Server und Storage in Form der Hyperkonvergenz auf die Einkaufsagenda. Keynotespeaker Dr. Axel Koester wird in seinem Vortrag auch die Frage behandeln: Warum setzt man immer auf die falsche Speichertechnik?
Anbieter zum Thema

Welches sind derzeit die größten Herausforderungen und Chancen für deutsche Unternehmen/Organisationen in Bezug auf Storage und Datenmanagement?
Die größte sich abzeichnende Herausforderung für Datenverarbeiter ist die schiere Vielfalt der neuen Werkzeuge und Aufgaben, gepaart mit einem Engpass an Spezialisten. Einerseits eröffnen neuartige kognitive Systeme und die Echtzeit-Datenanalytik Marktchancen, die man sich nicht entgehen lassen will (hier ist der größte Entwicklungssprung zu erwarten).
Andererseits sind IT-Teams oft knapp besetzt und selten unausgelastet. Abstraktion und Automation von Alltagsvorgängen müssen daher erste Priorität haben, um mehr Zeit in Innovation investieren zu können. Zugleich müssen sich Standarddienste dem Preisdruck externer Cloud-Anbieter stellen. Und das ganze wohlgemerkt bei stetig steigendem Qualitäts- und Verfügbarkeitsanspruch.
Welches sind für Sie derzeit die wichtigsten (technologischen / marktbezogenen) Entwicklungen im Storage-Bereich?
Das Schlagwort der <i>bimodalen</i> IT macht die Runde: auf der einen Seite die schnelle Provisionierung "von der Stange" mit reduziertem Performanceanspruch, auf der anderen Seite die handoptimierte IT für latenzsensitives Transaktionsgeschäft. Beide entstehen aus Kostendruck in verschiedene Richtungen und sind nur schwer vereinbar.
Es wird also zunehmend wichtig, zwischen "Breitenapplikationen" mit überwiegend parallelen Abläufen und "sequentiellen Applikationen" wie Kerndatenbanken zu unterscheiden; All-Flash Speicher, Echtzeitkompression und dedizierte Netze verbessern hier das Performance-/Preis-Verhältnis, wohingegen in Software realisierte Speichernetze vor allem die dynamische Skalierbarkeit und Agilität verbessern.
Vielleicht einmal andersherum gefragt: Was spricht gegen hyperkonvergente Systeme, Openstack, Docker & DevOps und FC-SAN?
Alles, was mehr Automation ermöglicht, sollte im IT-Betrieb evaluiert werden. Allerdings müssen die Grenzen dieser Technologie erprobt werden, denn wenn am Ende nur 30 bis 50 Prozent der Applikationen auf der neuen Plattform sinnvoll laufen, hat man diese ab sofort "zusätzlich" zu den bereits existierenden.
Das kann sich nur leisten, wer bislang vom Spezialistenmangel verschont blieb. Und das wäre auch der Hauptgrund, vorrangig die bestehende Umgebung nicht zu ersetzen, sondern so weit wie möglich zu automatisieren.
- Denselben Automationsgrad wie bei Hyperkonvergenz erreicht man inzwischen mit VMware VVOL oder äquivalenten Funktionen in HyperV, PowerVC oder bald OpenStack.
- Gegen Openstack spricht seine Open Source Do-it-yourself-Natur, die nicht jedem liegt. Startups wie bluebox schaffen hier aber erfolgreich Abhilfe.
- Gegen Docker spricht, dass zwar das Betriebssystem und die Hardware abstrahiert, aber nicht virtualisiert wird. Wer darauf verzichten kann, gewinnt ein nettes Performance-Plus.
Artikelfiles und Artikellinks
(ID:43883322)