Ohne Fachkräfte geht es nicht Storage-Automatisierung: Medizin mit Nebenwirkungen
Anbieter zum Thema
Kostendruck, komplexe Systeme, Fachkräftemangel: Auf viele Herausforderungen moderner Enterprise-IT liefert Automatisierung die passende Antwort. Aber die vermeintliche Wundermedizin bringt auch Nebenwirkungen mit sich.

Automatisierung ist eines der Top-Themen auf der Agenda von Datacenter-Verantwortlichen. Die zunehmende Zahl an Tools und Systemen und die damit verbundene Fragmentierung der IT-Landschaft wird im Storage-Bereich vor allem durch Standardschnittstellen und -protokolle gesteuert. Möglichkeiten zur Automatisierung von Prozessen bringen quasi alle modernen Systeme heute bereits mit dem mitgelieferten Bordwerkzeug mit; Trigger sind hier dann meist entweder der Faktor Zeit („Starte ein Backup um 2:00 Uhr“) oder Events („Starte Prozess B, wenn Prozess A abgeschlossen ist“). Entscheidend für den Output ist aber das Konzert der gesamten IT und nicht der Klang der einzelnen Komponenten. Nicht von ungefähr fällt an dieser Stelle häufig der Begriff der „Orchestrierung“. Benötigt wird, um im Bild zu bleiben, ein Dirigent, der das Gesamtorchester anleitet.
Die Idee von einer IT auf Autopilot ist natürlich extrem verlockend. Auf diese Weise werden auf einen Schlag mehrere Probleme gelöst: Die Kosten sinken, die Komplexität des Zusammenspiels wird quasi in einer Black-Box versteckt, und die Mitarbeiter können sich endlich um konzeptionelle Fragen kümmern, anstatt permanent Fehlerquellen und Optimierungswege zu suchen. Klingt toll – ist aber leider nur die halbe Wahrheit. In der Praxis sollten Automatisierungsschritte immer gut überlegt und akribisch vorbereitet sein.
Auch automatisierte Prozesse können schlecht sein
Die Umstellung von manuellen auf automatische Prozesse sollte immer mit einer eingehenden Prüfung der Abläufe verbunden sein. Viele ITler mussten bereits auf die harte Tour erfahren, dass ein Prozess, der manuell nicht funktioniert, auch automatisiert keine Ergebnisse bringen wird. Die Analysephase ist dann am effektivsten, wenn möglichst viele Abläufe auf den Prüfstand kommen, so dass erst durchgehend optimierte Prozesse in eine Automatisierung überführt werden. Wichtig ist dabei insbesondere eine saubere Dokumentation: Bei der Analyse werden in einem durchschnittlichen Unternehmen immer wieder Prozesse auftauchen, die niemand aus dem IT-Team mehr durchschaut. Oft existieren noch Skripte von Mitarbeitern, die das Unternehmen schon lange verlassen haben, und niemand weiß mehr, was da genau passiert. Nur wer seine manuellen Prozesse beherrscht, sollte sie erst dann automatisieren.
Auch eine automatisierte IT-Landschaft wird niemals vollkommen monolithisch für alle Ewigkeit dastehen. Wenn also die automatisierten Prozesse nicht transparent dokumentiert und für keinen Mitarbeiter mehr nachvollziehbar sind, ist man schnell wieder auf der „road to hell“, wenn ein Update „hakt“ oder eine neue Hardware-Komponente das Zusammenspiel verweigert. Aus genau diesem Grund sollten auch immer manuelle Stopp-Mechanismen eingebaut werden. Spätestens wenn der Autopilot stur Kurs hält, der Pilot im Cockpit aber den Boden immer näherkommen sieht, sollte das Vertrauen in die Technik enden. Automatisierte IT hat immer einen deterministischen Grund für ihr Handeln, das kann allerdings auch immer ein Programmierfehler sein.
Analysieren, automatisieren, wiederholen
Hitachi Vantara etwa hat – nicht zuletzt aufgrund der Hitachi-DNA aus dem OT-Bereich – dem Thema Automatisierung für seine Systeme seit langem eine hohe Priorität beigemessen; dabei spielt der Faktor Offenheit eine entscheidende Rolle. Teil aller Storage- oder HCI-Systeme (Hyper-Converged Infrastructure) ist das Ops Center, mit dem Administratoren zahlreiche Systeme über ein Konfigurationswerkzeug einrichten können. Das Ops Center kombiniert die Software-Module „Administrator“, „Analyzer“ und „Automator“ zu einer Suite, mit der sich quasi jede beliebige Infrastruktur in punkto Provisioning, Konfiguration und Management automatisieren lässt.
Der Analyzer ist in der Lage, Muster in den Prozessabläufen zu erkennen und mittels Machine Learning kontinuierlich Vorschläge zur Optimierung der Infrastruktur zu entwickeln. Wenn der Analyzer nach etwa drei bis vier Wochen praktisch alle Jobs einmal untersuchen konnte, liefert er eine detaillierte Auswertung zur Performance beziehungsweise Auslastung von Komponenten wie Storage-Systemen, LUNs (Logical Unit Numbers) oder Servern. Dabei werden Administratoren im „drill down“ auch auf Engpässe in der Infrastruktur hingewiesen. Durch diese „Predictive Maintenance“ können Probleme im Vorfeld evaluiert und der reibungslose 24x7-Betrieb gewährleistet werden.
Jobs werden im Automator-Modul über eine grafische Benutzeroberfläche mit Kacheln (Tiles) visualisiert. Ein vorhandenes Skript kann beispielsweise in eine Netzwerkkachel überführt werden und ist auf diese Weise gegebenenfalls auch zum ersten Mal sauber dokumentiert. Anbindungen zu einer Vielzahl von Standardsystemen sind als Templates bereits vorangelegt und müssen nur an die individuellen Gegebenheiten angepasst werden.
Im Zusammenspiel sorgen Analyzer und Automator für eine permanente Modellierung auf hoher, qualitativer Basis. Workflows oder Fachverfahren lassen sich damit ebenso abbilden wie beispielsweise die Integration virtueller Maschinen. Ein wichtiger Bestandteil des Automators ist das integrierte Berechtigungskonzept: Zum einen sind an jeder Stelle im Prozess manuelle Eingriffe möglich. Zum anderen lassen sich Prozesse, die Genehmigungen erfordern, auch in anderen Tools orchestrieren und Freigaben etwa über Smartphones realisieren. Das Service-Management kann an Tools wie „ServiceNow“ ausgelagert werden, automatisiert werden kann buchstäblich alles, was über REST API oder andere dokumentierte Schnittstellen angesprochen werden kann. Das führt nicht zuletzt zu einer Risikominimierung dieser Prozesse mit dem direkten positiven Einfluss auf die Betriebskosten.
Automatisierung permanent optimieren
Automatisierung ist ein mächtiges Tool, bringt aber, wie bereits angesprochen, auch Nebenwirkungen mit sich. In einem autonomen Fahrzeug kann sich jeder von A nach B transportieren lassen. Wenn aber die autonome Funktion ausfällt, muss ein Fahrer eingreifen. Wenn die Technik muckt, muss sie jemand reparieren können. Aber in einem autonomen Auto lernt man nicht fahren. Genauso lernt kein IT-Mitarbeiter in einer vollautomatisierten IT-Landschaft die Zusammenhänge und technischen Abhängigkeiten; die technischen Grundlagen gehen verloren.
Damit Mitarbeiter die IT effizient automatisieren und Skripte erstellen sowie optimieren können, müssen die entsprechenden Personen auch in der Zukunft tiefgehende Kenntnisse der wichtigsten Komponenten haben, um zu verstehen, was hinter den Skripten abläuft. Automatisierung nimmt dem Personal in den Rechenzentren also weder die Jobs noch die Verantwortung: Die Aufgaben verändern sich aber, sie werden vielfältiger und eröffnen mehr Freiraum für Kreativität und neue Konzepte. Was verschwindet, sind vor allem lästige Routinejobs, aber am Ende muss immer ein Mensch (besser mehrere) stehen, der weiß, was passiert, und in der Lage ist, einzugreifen.
*Der Autor: Jürgen A. Krebs ist seit Juli 2004 bei Hitachi Vantara tätig und verantwortet seit 2016 das CTO Office für die Central Region. Mit Hilfe seiner umfangreichen Branchenerfahrung von mehr als 35 Jahren gestaltet er die strategische Ausrichtung von Hitachi Vantara mit Fokus auf die Kernkompetenzen des Unternehmens. Der begeisterte Techniker beschäftigt sich in seiner Freizeit leidenschaftlich mit jeglicher Art von Elektronik, Motorenbearbeitung und dem Motocross.
(ID:47329272)