Altes Projektdenken behindert Einführung von Cloud Services

Cloud-Storage braucht ein neues Service-Denken der IT-Abteilung

03.02.2011 | Autor / Redakteur: Hartmut Wiehr / Rainer Graefen

Axel Köster, Speicherspezialist bei IBM, glaubt, dass das klassische Projektmodell der Umsetzung von granularen Services entgegensteht.

Clouds sind in aller Munde. Doch auf das neuartige Konzept sind nur wenige Unternehmen vorbereitet. Die Mehrheit ist in ihrer Organisation noch der klassischen Projektbürokratie verhaftet. Wer hier etwas ändert, schafft den Umstieg zu Cloud-Storage schneller.

Server, Storage, Netzwerke – die wichtigsten Komponenten der IT-Infrastruktur für Unternehmen jeglicher Größenordnung haben inzwischen einen Reifegrad erreicht, der sich sehen lassen kann.

Von den x86-Prozessoren mit mehrfachen Cores, die leicht auf- und nachzurüsten sind, über Speicher-Arrays mit schnellen und billigen Festplatten und verschiedenen Connectivity-Klassen von Fibre Channel bis zu SATA, die locker mit dem Datenwachstum Schritt halten, bis zu Breitbandverbindungen für WAN und SAN.

Summa summarum: eine fast perfekte IT-Welt mit Commodity-Produkten, deren Preise kontinuierlich im Fallen begriffen sind. Und dann gibt es da noch die feinen Techniken der Virtualisierung, mit denen die Intel- und Windows-Protagonisten zum Angriff auf die überdimensionierten (und teuren) Mainframe- und Unix-Hochburgen blasen.

Projekte, nichts als Projekte

Und dennoch ist diese moderne IT-Infrastruktur alles andere als perfekt. Das liegt zunächst an einem einfachen, nicht technologisch bedingten Umstand: Stand heute ist es in den meisten Unternehmen noch immer so, dass die IT-Anforderungen der Fachabteilungen, sei es nach Hardware oder Applikationen, einen komplizierten Genehmigungsprozess durchlaufen müssen, ehe es zu einer Zuweisung oder Implementierung kommt.

Automatische Dienste für die Datenspeicherung im Rechenzentrum einzuführen, wie es das Konzept der Private Cloud vorsieht, „wird nicht so schnell gehen“. Dies meint Axel Köster, Speicherspezialist bei IBM, und gibt auch gleich den Grund an: Sehr viele Rechenzentren seien noch nicht darauf vorbereitet, zu einem Betriebsmodell mit granularen Angeboten zu wechseln, da sie noch immer mit dem klassischen Projektmodell arbeiten.

Zuerst wird „overprovisioned“...

Die IT-Bedürfnisse der Fachabteilungen in einzelne Projekte aufzuteilen, ist einerseits ein funktionierendes Verfahren, mit dem sich die IT zu einem Produktivfaktor in den Unternehmen gemausert hat, andererseits sind aber offensichtliche Nachteile zu verzeichnen.

Ein Projekt muss begründet und abgesegnet werden, bevor es zu einer Zuteilung der beantragten Applikationen plus Server- und Speicherkapazitäten kommt.

Hat die IT-Abteilung dann sofort alles bereit und muss es nur noch freischalten, muss sie mit dem Vorwurf der Über-Provisonierung rechnen, weil sie nicht ausgeschöpfte Ressourcen herumstehen hat.

Kommt es zu Neuanschaffungen, vergeht in der Regel eine gewisse Zeit nach der Antragstellung, und womöglich stellt sich noch heraus, dass das „Seizing“ nicht stimmt oder Doppelanschaffungen passiert sind.

...und dann funktioniert das Recyling nicht

Gerade die De-Provisionierung, das Auseinanderbauen überzähliger oder nicht mehr gebrauchter Infrastrukturkomponenten wird in einer solchen Siloarchitektur nur unzureichend bewältigt – sie wandert in der Prioritätenliste nach hinten, muss den Tagesaufgaben weichen.

Nicht eindeutig geregelt ist ferner die Kostenaufteilung in einem solchen Projektmodell: Werden neben den Hardware- und Lizenzkosten auch die Betriebs-, Personal- und Energieausgaben auf die Fachabteilungen umgelegt oder werden sie komplett oder teilweise den Gemeinkosten zugerechnet?

weiter mit: Was ein Service kostet

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 2049026 / Prozesse)