Mobile-Menu

Michael Matzer im Gespräch mit Alexander Wallner, NetApp, über moderne RZ-Infrastrukturen mit Systemblöcken und Objekten Die Nachfrage nach Systemblöcken für die Private Cloud nimmt zu

Autor / Redakteur: Michael Matzer / Rainer Graefen

Alexander Wallner, der Geschäftsführer von NetApp Deutschland, sieht eine große Nachfrage nach konvergenten Infrastrukturen und Systemblöcken wie FlexPod, aber auch nach Objektspeicherung in Form von Content Repositorys. Wandelt sich die IT?

Anbieter zum Thema

Alexander Wallner, Geschäftsführer Netapp Deutschland
Alexander Wallner, Geschäftsführer Netapp Deutschland
(Foto: Netapp)

Die großen Drei im Storage-Markt haben alle einen Systemblock vorgestellt. IBM hat PureFlex, EMC vBlock und NetApp/Cisco haben FlexPod. Die Gartner Group bescheinigt dem neuen Storage-Markt mit Converged Infrastructure ein jährliches Umsatzwachstum von 63,8 Prozent in Europa.

Da dies ein beachtlicher Erfolg ist, stellt sich die Frage, worauf sich die Nachfrage, die damit befriedigt wird, gründet. Alexander Wallner hat dazu ganz klare Ansichten, schließlich sieht er NetApp als Marktführer in diesem Bereich.

Workshop: Flexpod - Basis standardisierter IT-Services
Bildergalerie mit 7 Bildern

Schneller am Ball

"Solch ein Systemblock besteht idealerweise aus optimal aufeinander abgestimmten Komponenten, die effizient miteinander zusammenarbeiten." Soweit die Theorie und das Marketing, sei es von NetApp, EMC oder IBM. "Was die Kunden wollen, ist die rasche Inbetriebnahme des Geräts, denn sie wollen ja nicht Infrastruktur, sondern den Mehrwert, den sie ihrem Business liefert."

Die IT wird von den Fachabteilungen nur noch als Enabler gesehen, und je schneller dieses "Enablement" geht, desto besser für die Produktivität und die Innovationskraft des Business. Time-to-value ist der zentrale Mehrwert von konvergenten Infrastrukturen.

"FlexPod, unsere IaaS-Lösung (Infrastucture-as-a-service) für Private Cloud, wird nicht von uns geliefert sondern durch unser breites und kompetentes Partnernetzwerk", lautet die verblüffende erste Aussage. Denn schließlich sind davon bislang 2100 Stück weltweit verkauft worden.

Strategische Partnerschaften könnten das RZ dominieren

Vielmehr handelt es sich um eine Best-of-breed-Referenzarchitektur, die Netapp zusammen mit Cisco, das die Netzwerk-Hardware und den UCS Server liefert, und VMware, Microsoft oder Citrix die die Virtualisierungsschicht bereitstellen, assembliert hat.

"Der Knackpunkt bei solch einem Systemblock ist nicht der Zusammenbau oder die schnelle Inbetriebnahme binnen zweier Wochen oder weniger Tagen, sondern der Support." An wen soll sich ein Kunde wenden, der ein Problem mal mit der Netapp-Komponente, mal mit der Cisco-Komponente hat?

Bei Netapp, so Wallner, sei dieser Unified Support ganz klar definiert: Es sind die Teilhaber der Referenzarchitektur. Wendet sich der Kunde an Cisco mit einem Netapp-Problem, dann wird der Case im Hintergrund rasch zu einem Netapp-Support-Mitarbeiter weitergeleitet, und umgekehrt.

Migration zur Referenz

Jonas Rahe von Cisco und Karl Breuer, Director Specialist Sales bei Microsoft, haben diese Aussage jüngst in einem Netapp-Roundtable bestätigt: "Es ist die Referenzarchitektur, die für die Kunden ausschlaggebend ist", sagte Rahe.

"Ebenso wie das positive Echo auf das Agieren der Partner." Der Kunde Langenscheidt setzt Flexpod wegen des Unified Supports ein. Mit einem kleineren Expresspod wollen Netapp und Cisco kleine und mittelständische Unternehmen adressieren.

Entscheidend für den Kunden sei auch, dass ihm ein Migrations- und Wachstumspfad geboten werden, damit seine Investition geschützt ist.

Der Nutzer könne daher, so Wallner, mit Netapps kleinen Storage-Bausteinen anfangen und diese sukzessive durch leistungsfähigere austauschen, denn die Referenzarchitektur, die die Protokolle und die Verwaltung bestimme, bleibe ja gleich. "Und wem ein Flexpod nicht reicht, schließt nach dem Scale-out-Prinzip einen weiteren an und so weiter."

Virtuelle Maschinen kapseln

Doch wie verträgt sich ein solches System mit dem Herstellerversprechen heterogener IT-Landschaften? Solche gewachsenen IT-Strukturen nach dem Bauchladenprinzip führen heute zu Kostenexplosionen, besonders durch hohe Wartungskosten.

Heilmittel: Konsolidierung durch Virtualisierung und Kapselung, so dass ich die Applikation in VMs auf eine konsolidierte Hardware verschieben kann. Der nächste Schritt ist die Standardisierung der Vielzahl der Anwendungen auf einer oder zwei Shared Infrastructures.

Dies wiederum wäre ein Flexpod: Er bietet Compute, Storage, Network. Der IT-Manager kann alle Anwendungstöpfe, die in VMs vorliegen, auf einer hochautomatisierten Hardware-Plattform verwalten. Zugleich kann die Migration der Daten aus den VMs erfolgen, so dass auf einem Server alle Daten optimiert (komprimiert, dedupliziert) und leicht sicherbar abgelegt werden können.

Die Dual-Vendor-Strategie lohnt nicht mehr

Ein wichtiger Trend spricht für solche Shared Infrastructures bzw. Systemblöcke: Die Kunden gehen zunehmend weg von der Dual-Vendor-Strategie zur Single-vendor-Strategie. Den Grund erklärt Wallner einleuchtend: "Die kurzfristigen Kostenvorteile, die ich in einem Preiskrieg zweier Mitbewerber, die ich gegeneinander antreten lasse, erzielen könnte, sind nicht mehr so hoch wie der Vorteil, den ich langfristig erziele, indem ich auf einer einzigen Plattform konsolidiere und standardisiere."

Dennoch müsse der CIO 30 bis 40 Prozent Kostenreduzierung pro Jahr realisieren. Der teuerste Kostenfaktor ist das Personal: "Wenn hoch-automatisierte Infrastrukturen IT Mitarbeiter entlasten - wie das etwa beim Netapp-Kunden Langenscheidt 2012 der Fall war - und diese damit für Business-Innovation und -Transformation (wie beispielsweise Web- oder App-Programmierung, Social Media usw.) eingesetzt werden können, dann ist der Vorteil noch einmal höher als durch die reine finanzielle Kostenreduktion.."

Ein kritischer Faktor in diesem Zusammenhang ist auch der Mangel an qualifizierten Fachkräften: "Das Up-Leveling, vulgo: Höherqualifizierung, eigenen Personals hat den Vorteil, dass ein Unternehmen seine Mitarbeiter behält, sie aber binnen zwei Jahren in strategische Positionen 'emporhieven' kann."

Objektspeicher arbeiten ohne Index

Bislang werden Objekte wie Video- oder Audiodateien auf einem Fileserver als Dateien in einem Dateisystem gespeichert. Das Problem ist nicht die Menge von dafür nötigem Speicherplatz, sondern die schiere Anzahl der Dateien.

Jedes File-System muss bislang in einem Index einen Tabelleneintrag für jedes Objekt (Datei) machen. Bei 50 Millionen Dateien wird erst das Backup, dann aber besonders der Restore-Vorgang ein Problem: Das Zeitfenster für die Wiederherstellung wird zu klein, selbst wenn man wie Netapp den Speicherplatz um 50 Prozent reduzieren kann.

Da heute bereits ein Ausfall der IT von wenigen Stunden ein Unternehmen massiv schädigen kann (es kommen Konventionalstrafen der Auftraggeber hinzu), muss man sich Gedanken um eine fortschrittlichere Methode der Objektspeicherung machen.

Funktionelle Objektklassen

Die Antwort sind Next Generation File Services (NGFS). Statt Dateinamen und Freigabenamen zu vergeben, wird nur ein Inventarname in einem Katalog angelegt. Die Aufnahme der Objekte kann über Unix- und Windows-Filesysteme in einem Storage Grid (Cluster im Petabyte-Bereich) erfolgen.

Nun kann der Nutzer Klassen von Objekten anlegen und jeder Klasse eine Policy zuweisen, also eine Behandlungsregel. Das kann etwa eine automatische Verlagerung auf eine SATA-Platte in den USA oder Indien sein.

Im Katalog der Objekte kann der Nutzer mit einer leistungsfähigen Suchfunktion das Objekt leicht wiederfinden und es durch Zurückholen wiederherstellen - das macht Backup überflüssig. Für Big Data und Content Repository ist dies ein zentraler Gedanke: Ein Objekt wird in einer Bibliothek zusammen mit Metadaten abgelegt.

Ein Storage Grid für Big Data?

Es gibt für den Bibliotheks-Katalog die offene CDMI-Schnittstelle, aber auch andere, die sich hier etablieren. Man will ja nicht schon wieder einen Silo bauen. Netapp setzt deshalb auf offene Standards. Wir können also Meta-Index-Suchmaschinen leicht anbinden. Unsere Domäne: hochverfügbare, skalierbare Speichersysteme mit extrem hoher Packungsdichte.

Darüber sorgt die Storage-Grid-Software dafür, Daten und Objekte Policy-basiert und vollautomatisiert dorthin zu verlagern, wo der Nutzer sie haben möchte. Was passiert aber, wenn der Repository-Katalog so groß wird, dass er die Kapazität einer Festplatte übersteigt? Der Index ist zwar relativ klein, selbst wenn es sich um 900 TByte im Repository handeln sollte, aber dennoch ist das Verteilen eines solchen Katalogindexes kein Problem: Wie in einem RAID-Array wird er gestriped und so verteilt.

Big Data ist für Wallner einer der wichtigsten Einsatzbereiche für Content Repository und Storage Grid. "Dieser Markt hat drei Teilbereiche: A wie Analyse, B wie Bandbreite (also hoher I/O-Durchsatz etwa in Videoüberwachung und High Performance Computing) und C wie in Content Repository."

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:39405870)