Kubernetes goes On-Premises Die Zukunft der Container liegt im eigenen Rechenzentrum

Autor / Redakteur: Sascha Uhl* / Dr. Jürgen Ehneß

Die Verwendung von Containern findet zunehmend Anklang. IDC zufolge wird die Zahl der eingesetzten Container bis Ende 2021 auf rund drei Milliarden ansteigen und sich damit von der ursprünglichen Zielgruppe der Hyperscaler und anderer großer Cloud-Anbieter hin zum IT-Mainstream bewegen. Einer der Hauptgründe für diesen Trend ist das stark zunehmende Interesse an Microservices.

Firma zum Thema

Container und Kubernetes sind auf dem Weg in den Mainstream.
Container und Kubernetes sind auf dem Weg in den Mainstream.
(Bild: gemeinfrei / Pixabay )

Der schnelle und unkomplizierte Einsatz von Microservices via Containern, also die Möglichkeit, modulare Dienste unabhängig voneinander bereitzustellen und zu entfernen, versetzt Unternehmen in die Lage, Anwendungen schneller zu entwerfen und zu implementieren. Sie können so nicht nur flexibler auf sich entwickelnde Anforderungen reagieren, sondern auch die eigenen Infrastrukturkosten sorgfältiger verwalten. Darüber hinaus bieten sich bei der Containertechnologie für IT-Fachleuten noch weitere entscheidende Vorteile, wie Verbesserungen in Anwendungsleistung, Software-Qualität und Anwendungsportabilität.

Wer über die Zukunft von Containern im Storage-Bereich spricht, muss sich zunächst vergegenwärtigen, dass Container für die Cloud entwickelt wurden. Entsprechend haben in den vergangenen Jahren die großen öffentlichen Cloud-Anbieter die Konversation rund um Kubernetes dominiert. Sie argumentierten, dass insbesondere die Kubernetes-Bereitstellungen in der öffentlichen Cloud angesiedelt sein sollten. Doch hat sich der Fokus hier in den vergangenen Jahren immer weiter verschoben. Immer mehr Unternehmen erkennen, dass sich Kubernetes-basierte Workloads, je nach ihren spezifischen Geschäftsanforderungen, tatsächlich besser vor Ort durchführen lassen.

Die Schwierigkeit hier liegt in der Struktur der Container selbst. Aus sich heraus zustandslos und relativ kurzlebig, stehen sie in einem fast schon krassen Gegensatz zu bestimmten Regeln, die mit traditionellem Speicherzugriff verbunden sind. Daraus ergeben sich eine Reihe neuer Herausforderungen für den Einsatz mit traditionellen Speichersystemen wie SAN oder NAS. Um diese zu überwinden, bedarf es dedizierter Tools – die jedoch mit höheren Kosten und Komplexität verbunden sind. Diese Probleme lassen sich allerdings umgehen, wenn der Aufbau der Speicherumgebung im eigenen Rechenzentrum dem Aufbau und den Zugriffsfunktionen der Cloud entspricht.

S3-Kompatibilität ist entscheidend

Aus diesem Grund wendet sich die Aufmerksamkeit zunehmend Objektspeicherlösungen mit Cloud-ähnlichen Strukturen zu. Diese sind ideal, da sie auch On-Premises S3-Kompatibilität bieten und gleichzeitig hoch-skalierbar sind. Dabei ist ein entscheidender Faktor die S3-API. Sie ist für den Betrieb sowohl über das Internet als auch über lokale Netzwerke ausgelegt. Neben dem Lesen und Schreiben von Daten, ermöglicht sie dabei leistungsstarke Funktionen für die Verwaltung und gemeinsame Nutzung von Daten.

Storage-Management Teil 1 – Immer den Überblick behalten

Um einen umfassenden Überblick bieten zu können, behandelt dieses eBook unter anderem die folgenden Themen:
# Was ist Storage-Management?
# Nahe Verwandte des Speichermanagements
# Der Status quo der Storage-Systeme

eBook „Storage-Management“ downloaden

Dies spielt bei der Unterstützung der Containerisierung eine wichtige Rolle, insbesondere da zu den Hauptvorteilen der Verwendung von Containern die Portabilität von Anwendungen und die Möglichkeit treten, eine Anwendung überall dort zu starten, wo sie benötigt wird. Bei einer Verwaltung über mehrere Standorte hinweg müssen die persistenten Daten zur Ausführung dieser Anwendung an jedem Standort verfügbar sein. An dieser Stelle kommt S3 als die „Lingua franca“ der modernen Cloud-Speicherung ins Spiel. Sie bietet einen einheitlichen globalen Namespace, der es containerbasierten Anwendungen ermöglicht, einfach eine Verbindung zu den Daten herzustellen. Indem der Zugriff auf die nächstgelegene Kopie dieser Daten gewährleistet wird, können potenzielle Probleme mit der Netzwerklatenz, die beispielsweise durch Remote-Verbindungen entstehen können, minimiert werden.

Nachfrage nach On-Premises-Kubernetes-Anwendungen nimmt zu

Bei den Unternehmen ist ein deutlicher Bedarf nach neuen Tools und Ansätzen erkennbar, die es einfacher machen, bei massiven Cloud-nativen Workloads Objektspeicher und Kubernetes gemeinsam zu verwenden. Technische Entwicklungen und die Nachfrage nach der besseren Integration von Kubernetes und Objektspeicher werden dazu führen, dass immer mehr Unternehmen Kubernetes in On-Premises-Umgebungen einsetzen. Auf lange Sicht wird Kubernetes so den IT-Mainstream erreichen.

Das Technologie-Unternehmen VMware hat sich als einer der Vorreiter herauskristallisiert. VMware hat bereits im vergangenen Jahr mit der Einführung seines vSphere-mit-Kubernetes-Angebotes sowie weiteren entwicklerfreundlichen Funktionen den ersten Schritt in diese Richtung getan und wird wohl auch in diesem Jahr den Trend weiter anführen.

Auf dem Weg in den Mainstream

Bereits Anfang des Jahres kündigte VMware die generelle Verfügbarkeit von Tanzu Advanced an. Zu den Neuerungen des Tanzu-Portfolios gehören unter anderem die Fähigkeit, dass Container das Sourcing und die Builds automatisieren können, und auch die Möglichkeit, eine große oder kleine Anzahl von Kubernetes-Clustern über Teams und Clouds hinweg zentral zu verwalten. Zudem wurde mit dem kürzlich bekannt gegebenen VMware Cloud Foundation Update die vSAN-Data-Persistence-Plattform vorgestellt, die eine Objektspeicherbereitstellung durch Kubernetes-orchestrierte Container ermöglicht.

Über die kommenden Monate hinweg wird es voraussichtlich weitere Produkteinführungen und Ankündigungen von Partnerschaften geben – nicht nur bei VMware –, die den Kubernetes-Einsatz in lokalen Systemen vorantreiben und die Technologie einem ganz neuen Mainstream-Publikum zugänglich machen. Speziell entwickelte Lösungen werden dabei immer mehr auf die Anforderungen sowohl von DevOps im Entwicklungsbereich als auch von Produktions-Workloads eingehen. Zu diesen gehören neben der bereits erwähnten Skalierbarkeit und Anwendungsportabilität beispielsweise Flexibilität für Self-Service- und Multi-Tenant-Storage, Kosteneffizienz, Langlebigkeit sowie höchsten Sicherheitsstandards.

Sascha Uhl, Object Storage Technologist, Cloudian.
Sascha Uhl, Object Storage Technologist, Cloudian.
(Bild: Cloudian)

*Der Autor: Sascha Uhl, Object Storage Technologist, Cloudian

(ID:47259599)