Software soll die Komplexität gewachsener Umgebungen reduzieren

Die komponierbare IT-Ressource für die Mitarbeiterrolle

| Autor / Redakteur: Walter Schadhauser / Rainer Graefen

Viele Bemühungen drehen sich derzeit um die Reduzierung der Komplexität gewachsener Speicherumgebungen.
Viele Bemühungen drehen sich derzeit um die Reduzierung der Komplexität gewachsener Speicherumgebungen. (Bild: © wowomnom - Fotolia.com)

Die Speicherwelt ist zu komplex. Dieses Resümee zieht praktisch jeder Storage-Manager in Null-komma-nichts aus dem Ärmel. Speicherkapazität ist anscheinend immer da vorrätig, wo man sie nicht braucht, respektive da, wo man sie nicht für den aktuellen Zweck verfügbar machen kann.

Früher machte jedes neue Speichersystem die Speicherwelt im Unternehmen erst einmal einfacher, das behauptet zumindest jeder Hersteller. Es ersetzte das Altsystem, hatte danach noch viel Speichervermögen übrig und war meistens dreimal schneller als das Alte.

Leider hatte es eine neue Managementoberfläche und das bedeutete für den Storage-Operator: er musste neue Controller-Funktionen dazulernen und manchmal waren die bekannten alten Funktionen nicht mehr vorhanden. Das Altsystem wurde typischerweise den Software-Entwicklern übereignet.

Speicher-Hardware hat längere Investitionszyklen

Die generelle Crux dieser Entwicklung war, dass die Storage-Plattformen immer älter wurden, und mit ihnen auch die Entwickler. So spätestens nach 10 bis 20 Jahren war die verwendete Backbone-Technik wie auch die Entwickler nicht mehr State-of-the-Art. Um das Leistungs- und Kapazitätspotenzial auszuschöpfen, war extremes Feintuning notwendig.

Die nächste Welle der Komplexitätsreduzierung betraf dann die Vereinfachung der Bedienung. Die Speichervirtualisierung machte es möglich. Für ganze Produktportfolien wurde die Management-Oberfläche vereinheitlicht und bot dann auch noch die Zuordnung von Speicherkapazität zum Server mit wenigen Mausklicks. Selbst FC-Arrays waren mit einem Mal einfacher zu verwalten.

Den Höhepunkt der Innovationswelle stellten dann Speichersysteme dar, die mittels Scale-up nicht nur schneller und größer waren, sondern durch Scale-out auch eine fast grenzenlose Erweiterung des Speichersystems ermöglichten. Und als Clou des Ganzen boten sie Investitionsschutz, der ebenfalls durch dedizierte Speichervirtualisierungsfunktionen die Integration der Speichersysteme von Fremdanbietern erlaubte.

Die aktuelle Komplexitätsreduzierungs-Bewegung beruht auf dem Lebenszyklus der Prozessor- und Serverentwicklung. War bei der Einführung der FC-Technik noch der Investitionsschutz der SAN-Komponenten das Argument, so hat sich das heute gedreht. Die Speichertechnik hat durch die NAND-Flash-Speicherzellen den enormen Geschwindigkeitsnachteil verglichen mit der x86-Prozessortechnik in kürzester Zeit wieder gut gemacht, aber das Festhalten an den überkommenen SATA-, SAS und wahrscheinlich bald auch PCIe-Schnittstellen, droht wieder zu einem Nachteil zu geraten.

Automatisierte Benutzung der Ressourcenpools

Doch noch drehen sich viele Anstrengungen darum, die mehr oder weniger fortgeschrittene Virtualisierung auf den drei Layern Compute, Network und Storage inklusive ihrer Software-defined Variante zu einem Gesamtkunstwerk in Form des Software-defined Data Centers (SDDC) zusammen zu bringen.

Das SDDC soll dann auch nicht mehr auf die Ressourcen eines On-Premise-Rechenzentrums beschränkt werden, sondern Dienste aus der Cloud integrieren. Auf einer physikalischen Basis mit dedizierten Speicher-, Server oder Netzwerk-Infrastrukturen ist das absehbarerweise unmöglich zu realisieren. Einmal auf Maschinenebene eingestellte Parameter, lassen sich von einer Geschäftsprozessebene nicht On-the-fly verändern.

Dreh- und Angelpunkt aller technischen Entwicklungsbemühungen ist damit immer noch die Virtuelle Maschine (VM). Speicherkapazität sollte deshalb auf die wechselnden Bedürfnisse von VMs und ihren Anwendungen abgestimmt sein, nicht auf einen Hardware-Controller.

Dann lässt sich auch die Hochverfügbarkeit von kritischen Anwendungen mit einfachen Mitteln durch eine Hypervisor-basierte Replikation sicherstellen. Ebenso kann das Hypervisor-basierte Management von VM-Anwendungen dafür sorgen, dass der Speicher alle Vertragsbedingungen bezüglich Service-Level Agreements erfüllt.

Hier kommt derzeit noch eine hehre Aufgabe auf den Storage-Operator zu. Obwohl hochwertiger Flash-Speicher beim Kapazitätskostenvergleich um den Faktor 40 teurer ist als die inzwischen auf die hinteren Tiers verwiesenen Festplatten ist, ist der Siegeszug von Flash in die Server und Netzwerke dieser Welt nicht zu verhindern. Doch um die Kosten von Flash zu rechtfertigen, ist der kontinuierliche Nachweis notwendig, dass der Flash-Speicher sein I/O-Potenzial ausschöpft.

Komplexität beim Arbeitseinsatz

Man sollte angesichts des Hypes um VMs nicht übersehen, dass sich letztlich alles um die Daten und ihre Verarbeitung dreht. Der Hypervisor könnte insofern ein Zwischenschritt sein. Zu sehen daran, dass Virtualisierung inzwischen in sehr kleinen Funktionseinheiten mit gekapselten Containern stattfindet. Diese Container-Technik ist, so wie es derzeit aussieht, auf dem Marsch in die Rechenzentren. Doch so wie die Virtualisierung trotz 20jähriger Innovation immer noch nicht ans Ende gekommen ist, so wird auch die Container-Technik nur sukzessive Erfolge verbuchen können.

Vergleicht man die technische Komplexität auf den drei Layern mit neuen Vorgehensmodellen beim Produkt- und Projektmanagement, die unter dem Begriff Scrum für disruptive Entwicklungen sorgen sollen, dann bekommt man eine Vorstellung wie sich die Software-definierte IT verändern müsste. Das geht grob gesagt so: Ein Product-Owner benötigt für eine innovative Produktidee eine kleine interdisziplinäre Mannschaft von Spezialisten, die das Scrum-Team bilden. Etablierte Hierarchien werden hierbei für einen gewissen Zeitraum außer Kraft gesetzt.

Erfolge werden entsprechend der kurzen Lebensdauer moderner Produkten innerhalb weniger Monate erwartet. Nach dem Ende des Projektes werden die Experten wieder in ihre Fachabteilungen eingegliedert oder auf neue Projekte verteilt.

Solchen modernen Arbeitsweisen wird die IT mit einer Rollen-basierenden programmierbaren Infrastruktur folgen müssen. Natürlich nicht nur für das On-Premise-Rechenzentrum, sondern darüber hinaus auch für eine Hybrid- oder Inter-Cloud-Arbeitsumgebung. Ob das ganz ohne Komplexität geht?

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44433037 / Konsolidierung/TCO)