Die „Kiste“ ist der Schlüssel zum Erfolg der Transformation Container auf der Überholspur – und warum es Boxen braucht
Anbieter zum Thema
Die IT befindet sich inmitten eines Wandels. Nahezu alles an der Art und Weise, wie Unternehmen Anwendungen bereitstellen und entwickeln, ändert sich im Rahmen der digitalen Transformation. Eine Einschätzung von Pure Storage widmet sich den Containern – gemeint ist die Softwaretechnik – und der „Kiste“, womit die On-Premises-Infrastruktur gemeint ist.

Die Bemühungen um die digitale Transformation (DX) stehen vor einer Zerreißprobe. Obwohl sie für die Mehrheit der Unternehmen in den letzten Jahren eine Priorität darstellten, zeigen IDC-Untersuchungen, dass 47 Prozent der Unternehmen immer noch deutlich im Rückstand sind (siehe: „IDC FutureScape: Worldwide Digital Transformation 2022 Predictions“). Irgendetwas funktioniert immer noch nicht, und die Unternehmen überdenken den Weg nach vorne.
Vielen ist klar, dass ihr Ansatz nicht aus den isolierten Bemühungen bestehen kann, die bisher so viele Transformationsversuche bestimmt haben. Es bedarf einer umfassenderen Idee, die das gesamte Ökosystem berücksichtigt, angefangen bei der Basis. Mit anderen Worten: Es wird darauf ankommen, was in der „Kiste“ ist.
Der Wechsel zur menschenzentrierten DX
Wie IDC-Analyst Rick Villars es ausdrückt, bedeutet DX „digital-first“, aber es ist „keine Technologie. Es geht nicht um Wireless-First, SAN-First oder PC-First. Es ist ein organisatorisches Bestreben. Und um erfolgreich und wettbewerbsfähig zu sein, muss es eine Eigenschaft eines Unternehmens sein.“ (siehe: „IDC FutureScape: Worldwide IT Industry 2022 Predictions“)
Es ist ein wesentlicher Bestandteil des Arguments, dass die Transformation von Natur aus menschlich ist. Unternehmen, die sich auf den menschlichen Aspekt konzentrieren und die Bedürfnisse von Kunden und Mitarbeitern in den Vordergrund stellen, werden andere bei weitem übertreffen.
Die Aufgabe besteht dann darin, diese Bestrebungen in IT-Fähigkeiten zu übertragen – und nicht andersherum. Und warum? Weil es selten funktioniert, das Pferd vom Schwanz her aufzuzäumen.
Bei der Transformation geht es um menschliche Erfahrungen und Arbeitsabläufe in der Praxis. Um diese zu modernisieren, ist ein kultureller und technologischer Wandel nötig. Dazu wiederum sind moderne Anwendungen erforderlich, die datengesteuert, containerbasiert und ressourcenintensiv sind. Legacy-Infrastrukturen können nicht die Flexibilität, Belastbarkeit oder Skalierbarkeit bieten, um diesen Wandel hin zu einer menschenzentrierten Transformation und den modernen Anwendungen zu unterstützen, die erforderlich sind, um dieses Potenzial voll auszuschöpfen.
Um die Anwendungen ausführen zu können, die die digitale Transformation zum Erfolg führen, müssen sich Unternehmen von der Legacy-Technologie befreien, die sie behindert. Shawn Fitzgerald, Research Director, Worldwide Digital Transformation (DX) Strategies bei IDC, stellt fest: „Obwohl Software sicherlich wichtig ist, wird ein weitaus größerer Teil der Investitionen aus den Technologiebudgets für die digitale Transformation auf Hardware und Dienstleistungen entfallen.“
In einer von Bredin Research und Pure Storage durchgeführten Studie unter 500 IT-Entscheidern weltweit wurde deutlich, dass Hardware und aktualisierte On-Premises-Infrastrukturen im Mittelpunkt der Bemühungen um die digitale Transformation stehen:
- 60 Prozent implementieren IT-Infrastrukturen der nächsten Generation, um Geschäftsergebnisse zu erzielen.
- 84 Prozent tätigen neue Investitionen in IT-Systeme und Software, um neue Initiativen zu unterstützen.
- 61 Prozent versuchen, die Einführung neuer Technologien zu beschleunigen, ohne die bestehenden Abläufe zu beeinträchtigen.
Die Unternehmen sind auf dem richtigen Weg, aber nicht alle Infrastrukturen sind gleich. Jetzt ist ein entscheidender Zeitpunkt, um eine kluge Wahl zu treffen und in zukunftssichere, wirklich moderne Lösungen zu investieren. Doch was macht eine moderne Infrastruktur aus?
Moderne Plattformen ermöglichen ergebnisorientiertes DX und transformieren die IT
Daten-Management-Plattformen werden den Unterschied ausmachen zwischen dem Kampf um eine umfassende Transformation und der nahtlosen Bereitstellung menschenorientierter Erfahrungen. Diese Lösungen setzen einen neuen Standard für das, was Unternehmen standardmäßig erhalten können.
Infrastrukturen, die den Erfolg der Transformation vorantreiben können, sollten ein Gerüst aus modernen Funktionen bieten, darunter:
Software-gesteuerte Lösungen, die ständig aktualisiert werden: Alte Administrationsaufgaben werden obsolet, wenn Software bei der Lösung von Problemen helfen kann und es ermöglicht, die vorhandenen Tools auf moderne Art und Weise zu nutzen, ohne sie ablösen und ersetzen müssen.
Nahtlose, organische Unterstützung für moderne Anwendungen: Cloud-basierte Anwendungen gedeihen auf einer Plattform, die eine einheitliche Steuerungsebene und verwaltete Datendienste für containerisierte Anwendungen bietet, die sich leicht in die modernen Tools integrieren lassen, die Entwickler verwenden.
Self-Service und native Automatisierungsfunktionen: Eine robuste Abstraktionsschicht entkoppelt Anwendungen von der Hardware und macht manuelle Backend-Arbeiten überflüssig. Die Mitarbeiter werden durch Low-Code/No-Code-Tools gestärkt. Mit solchen Tools können sich die Teams auf hochwertige, kreative Arbeit konzentrieren.
Skalierbarkeit, um Probleme und Einschränkungen zu reduzieren: Big-Data-Analytik und künstliche Intelligenz sind nach wie vor wichtige DX-Initiativen, und um erfolgreich zu sein, benötigen aber skalierbare Grundlagen wie leistungsstarke Scale-Up-Speicher und Scale-Out-Speicher.
As-a-Service-Verbrauch: Bei diesem kontinuierlichen Wandel in der IT geht es um Ausfallsicherheit, Skalierbarkeit und die Flexibilität, neue Geschäftsanforderungen sofort zu erfüllen.
Von der Kiste zum Container
Die Quintessenz: Unternehmen sollten sich sich nicht mit dem zufriedengeben, was „in der Kiste“ steckt. Diese digitale Transformation kann, wie Pure Storage mitteilen lässt, durch drei Hauptelemente charakterisiert werden.
- Erstens geht es um die digitale Befähigung von Prozessen innerhalb von Unternehmen und nach außen zu Kunden und Partnern.
- Zweitens ist sie stark von der Cloud beeinflusst, durch die eigentliche Nutzung von Cloud-Ressourcen oder durch die Verwendung Cloud-ähnlicher Betriebsmodelle.
- Drittens ändert sich auch die Art und Weise der Anwendungsentwicklung hin zu einem Modell der kontinuierlichen Integration und Bereitstellung, das häufige sich wiederholende Änderungen ermöglicht.
An der Spitze dieser drei Elemente steht die Umstellung auf Container.
Mit Containern bietet sich die Fähigkeit, Anwendungen auf der Grundlage eines kontinuierlichen Entwicklungsmodells zu erstellen. Diese Container sind äußerst in sich geschlossen, hoch skalierbar und portabel, während sie gleichzeitig in Bezug auf die von ihnen gekapselten Service-Komponenten granular sind.
Viele Experten sind sich einig, dass in Container gepackte Anwendungen, die über eine Orchestrierungsplattform wie Kubernetes bereitgestellt und verwaltet werden, eine zentrale Rolle in der Weiterentwicklung der IT des nächsten Jahrzehnts spielen werden. Laut Gartner werden bis zum Jahr 2025 85 Prozent der Unternehmen Container produktiv einsetzen, während es im Jahr 2019 erst 35 Prozent waren.
Container können mit einer viel höheren Dichte als herkömmliche virtuelle Workloads ausgeführt werden, was bedeutet, dass weniger Server erforderlich sind. Dies hat den Nebeneffekt, dass die Lizenzkosten und vor allem der Energiebedarf sinken.
Aus diesen Gründen werden Container zunehmend zur Grundlage von Initiativen zur Kostensenkung und von breiter angelegten Geschäftsprozessen. Unternehmen streben dabei in der Regel 25 bis 40 Prozent der Anwendungen als einen üblichen Ausgangspunkt an.
Offene Fragen
Aber was ist mit Storage, Data Protection, Backups, Snapshots, Replication, High Availability (HA) und Disaster Recovery? Diese Bereiche sind für die Infrastruktur von Anwendungen eines Unternehmens von entscheidender Bedeutung, können aber eine Herausforderung bei Container-Prozessen darstellen.
Man nehme an, das Kerngeschäft eines Unternehmens konzentriert sich auf die häufige Einführung vieler neuer Produkte mit schnellen Nachfragespitzen und den damit verbundenen Anforderungen an Analysen. Es könnte sich beispielsweise um einen Betrieb für Ticketverkauf mit plötzlichen und massiven Umsatzspitzen handeln. Herkömmliche Anwendungen auf einer dreistufigen Architektur (Client-Server-Datenbank) würden sich nur langsam implementieren lassen, wären nicht gut skalierbar und würden bei hoher Nachfrage zusammenbrechen. Container wurden entwickelt, um genau eine solche Situation zu bewältigen.
Das liegt daran, dass Container die unzähligen Komponenten einer Anwendung kapseln. Das aber bedeutet, dass viele solcher Microservices wiederverwendbar sind, wenn neue Anwendungen entwickelt werden. Und sie können sich schnell vermehren, um den Anforderungen einer Skalierung gerecht zu werden.
Nachfragespitzen und Wiederverwendung
Darüber hinaus enthalten Container die gesamte API-Konnektivität (Application Programming Interface) zu jenen Komponenten, von denen sie abhängen, und können auf zahlreiche Betriebsumgebungen portiert werden. So kann ein plötzlicher Anstieg der Nachfrage nach Veranstaltungstickets durch eine schnelle Vervielfältigung miteinander verbundener Service-Instanzen von Containern aufgefangen und auf mehrere Rechenzentren, auch in einer Public Cloud, übertragen werden.
Die technischen Grundlagen von Containern bestehen – stark vereinfacht – darin, dass es sich um eine Form der Virtualisierung handelt. Im Gegensatz zu virtuellen Servern laufen sie direkt auf dem Host-Betriebssystem und ohne einen dazwischengeschalteten Hypervisor. Das bedeutet, dass Container eine besonders granulare, leichtgewichtige virtuelle Maschine sind, die in der Regel bestimmte Komponenten der gesamten Anwendung bereitstellt, die durch Code (das heißt: APIs) miteinander verbunden sind.
Während es keinen Hypervisor und damit auch keinen daraus folgenden Overhead gibt, profitieren Container von einer Orchestrierungsschicht, die von Tools wie Kubernetes bereitgestellt wird und die einen oder mehrere laufende Container, jeweils mit ihrem Code, ihrer Laufzeit, ihren Abhängigkeiten und Ressource-Calls, in Pods organisiert. Die Intelligenz zur Ausführung von Pods befindet sich über ihnen in einem oder mehreren Kubernetes-Clustern.
Die Herausforderungen von Kubernetes an Storage und Backup
Eine der größten Herausforderungen, die es mit Kubernetes zu bewältigen gilt, betrifft Storage und Data Protection. Die Wurzeln dieser Problematik gehen auf die Ursprünge von Containern zurück, die ursprünglich als flüchtige Instanz auf dem Laptop eines Entwicklers laufen sollten und für die die Datenspeicherung nur so lange existierte, wie der Container ausgeführt wurde.
Seitdem sich Container in der Anwendungsentwicklung von Unternehmen durchgesetzt haben, ist dies jedoch nicht mehr möglich. Die meisten Anwendungen einer Unternehmensorganisation sind zustandsorientiert, das heißt: Sie erstellen, beeinflussen und speichern Daten.
Unternehmen, die Container mit Storage und Data Protection der Unternehmensklasse bereitstellen möchten, müssen sich daher mit einer neu aufkommenden Klasse von Produkten befassen. Dabei handelt es sich um die Management-Plattform von Container Storage, von der aus sie Kubernetes betreiben und deren Bedürfnisse an Storage und Data Protection erfüllen und verwalten können.
Orchestrierung oberhalb des Orchestrators
Ein wichtiger Punkt ist, dass jedes Kubernetes-Speicherprodukt Container-nativ sein sollte. Das bedeutet, dass die Speicheranforderungen einer Anwendung selbst als Microservices in Container-Form bereitgestellt werden. Ihre Anforderungen an Bereitstellung, Konnektivität und Leistung werden als Code geschrieben, mit all der Dynamik und Geschwindigkeit, die dies mit sich bringt. Dies steht im Gegensatz zu anderen Methoden – wie CSI oder Container Storage Interface –, die auf fest programmierte Treiber für den an die Container zugewiesenen Speicher angewiesen sind.
Inzwischen sollte eine Software-definierte, Container-native Kubernetes-Speicherplattform Zugriff auf Block-, Datei- und Object-Storage zur Verfūgung stellen und in der Lage sein, auch auf Cloud-Storage zurückzugreifen. Dabei sollte sie die zentralen Merkmale und Vorteile der Verpackung in Container und von Kubernetes nachbilden. Das bedeutet, dass die Daten genauso portabel sein sollten wie die der Anwendung im Container, dass sie über eine gemeinsame Control Plane verwaltet werden sollten und dass sie autonom skalieren und sich anpassen sollten.
Was Data Protection betrifft, so sollte ein solches Produkt alle wichtigen Methoden zur Sicherung von Daten bieten, einschließlich Backups und Snapshots, synchroner und asynchroner Replikation und Migrationsfunktionen. Auch hier sollte die Cloud als Quelle oder Ziel in diesen Vorgängen berücksichtigt werden. Um die Skalierbarkeit von Kubernetes-Umgebungen zu bewältigen, sollte das Produkt in der Lage sein, Cluster, Knoten und Container zu verwalten, die jeweils zu Hunderten, Tausenden beziehungsweise Hunderttausenden laufen, mit einer verwaltbaren Speicherkapazität von mehreren zehn Petabyte.
Schließlich sollte es intelligent reagieren und über eine regelbasierte, automatisierte Verwaltung verfügen, die zum Beispiel das Erstellen, Replizieren und Löschen von Containern entsprechend den voreingestellten Kontrollmechanismen sowie die Bereitstellung und Anpassung der Volumina von Storage nach Bedarf ermöglicht. Wenn man eine Lösung gefunden und implementiert hat, die all diese Kriterien erfüllt, wird man bald selbst erkennen, warum 85 Prozent der Unternehmen bis zum Jahr 2025 auf Container setzen werden.
(ID:48556162)