Speicherkosten clever planen hilft sparen Kosten der Hyperscaler-Clouds optimieren
Anbieter zum Thema
Cloud Computing eröffnet Unternehmen jeder Größe in vielerlei Hinsicht Möglichkeiten, Investitionen zu vermeiden und die Betriebskosten ihrer IT zu senken. Bei einem Vergleich der größten Anbieter zeigen sich jedoch Unterschiede im Kostenmanagement und hinsichtlich der Unterstützung der Kunden.

Hinsichtlich der Vorteile des Cloud Computings sind sich Anbieter und Kunden weitgehend einig. Beim Cloud Computing können Unternehmen gleich in mehrfacher Hinsicht Kosten einsparen. „Zum einen fallen keine Lizenzkosten für die Software an“, zählt Christian Zöhrlaut, Director Products Medium Segment beim ERP-Anbieter Sage auf. „Denn der modulare Aufbau von Cloud-Lösungen ermöglicht eine flexible Nutzung der verschiedenen Dienste.“ Der Kunde zahle eine Gebühr für die Servicebereitstellung, die in der Regel monatlich fällig wird (Subskriptionsmodell). Ihm würden also nur Dienste in Rechnung gestellt, die er auch tatsächlich in Anspruch nehme (on demand, Pay-as-you-go-Modell). „Auch die Vertragslaufzeiten sind jederzeit kündbar: Bezieht das Anwenderunternehmen beispielsweise ein ERP-System im Subskriptionsmodell, kann es je nach Bedarf entsprechende Dienste hinzubuchen oder abmelden.“ Das erhöhe die Flexibilität bei der Kostenplanung. Die Kostenoptimierung wird von Amazon, MS Azure und Google mit professionellen Tools ermöglicht.
Im Mietmodell ist die IT kostengünstiger. Zöhrlaut weiter: „Hinzu kommt, dass sich der Kunde beim Cloud Computing nicht um Implementierung, Betrieb und Wartung kümmern muss. Auch Updates werden automatisch vom Anbieter aufgespielt. Kleinere Unternehmen können damit auf eine eigene IT-Administration verzichten, die einen nicht zu unterschätzenden Kostenfaktor darstellt.“
„Die Infrastrukturkosten unseres neuen, Cloud-basierten SAP-Systems betragen nur noch ein Zehntel derjenigen des Ausgangssystems“, berichtete DB-Systel-Projektmanager Steffen Müller in einem Vortrag auf dem AWS Transformation Day 2020. Der Performance-Gewinn sei signifikant, vor allem aufgrund der optimalen Wahl der EC2-Instanzen, die Backups gingen schneller vonstatten, ebenso die Wiederherstellung der Daten. Neben gesunkenen Lizenzkosten besteht nun die Chance, Systeme und Services weitestgehend zu automatisieren.
Nicht nur Services lassen sich automatisieren, sondern auch die Kostenverwaltung. Folglich ist der Dienstleister ist in der Lage, Vorteile, die er durch Skaleneffekte erzielt, an seine Kunden weiterzugeben. „AWS gab seit 2006 80 Preissenkungen an seine Kunden weiter“, berichtete AWS-Mitarbeiter Mert Dogu auf demselben Systel-Vortrag 2020.
Lunch for free
Ein näherer Blick auf die Webseite „kostenlose Services“ bestätigt die Aussage von AWS-Mitarbeitern. Abseits des AWS Simple Calculator, mit dem sich Leistung und Kapazität berechnen lassen, erscheinen drei Kategorien auf der Webseite, die in der Tat kostenfrei sind: „12 Monate kostenlos“, „Immer kostenlos“ und „Testversionen“. Dass Testversionen grundsätzlich kostenlos sein sollten, damit sich Entwickler für sie interessieren, darf als selbstverständlich vorausgesetzt werden. Kein Wunder ist es daher, dass sich hier zudem auch viele Angebote von AWS-Partnern tummeln.
In der Kategorie „Immer kostenlos“ bietet AWS Services wie Lambda, die events-basiert sind, mit einer Million Gratis-Requests pro Monat. Es sind derzeit insgesamt 33 Services. Bei Google sind derzeit mehr als 20 Produkte kostenlos pro Monat nutzbar. Neue Kunden erhalten ein Startguthaben im Wert von 300 US-Dollar, mit dem sie Google-Cloud-Platform-Produkte in vollem Umfang nutzen und kennenlernen können. Ihnen werden erst Gebühren in Rechnung gestellt, wenn sie ein Upgrade ausführen.
Mit der Kategorie „bis zu 12 Monate kostenlos“ habe AWS seinen Kunden seit 2006 80 kontinuierliche Preissenkungen weitergegeben, fasst Dogu zusammen. Diese Aussage trifft vor allem auf Angebote zu, die in den ersten zwölf Monaten kostenfrei sind. So etwa auf die 750 Stunden EC2 pro Monat. T2Micro RDS (db.t2.micro-Datenbanken) kann man mit 20 GB Speicherkapazität plus 20 GB Backup-Kapazität zu Testzwecken 750 Stunden lang im 31-Tage-Monat oder 24,2 Stunden pro Tag für lau nutzen – aber nur im ersten Jahr und nur für Neukunden. Wenn der zwölfmonatige Zeitraum für die kostenlose Nutzung abgelaufen ist oder das kostenlose Kontingent überschritten wird, gelten die nutzungsabhängigen Servicetarife. Die Preise dafür finden sich auf einer gesonderten Webseite der AWS-Webseite.
Spot(t)-Preise für Instanzen
Alle großen Cloud-Anbieter bieten mehr oder minder ausgefeilte Instrumente für das Kostenmanagement und die Kostenoptimierung an. Die Nutzung von Compute- und anderen Kapazitäten auf dem jeweiligen Spot-Markt ist neben den kostenlosen Angeboten und den reservierten Kapazitäten eine bedeutende Möglichkeit, Gebühren für Instanzen zu sparen. Der Vorteil kann gegenüber On-demand-Instanzen bis zu 90 Prozent betragen.
„Da Spot-Instances häufig zu einem niedrigeren Preis verfügbar sind [verglichen mit On-demand-Preisen], können Kunden die Ausführungskosten ihrer Anwendungen reduzieren, Rechenkapazität und Durchsatz ihrer Anwendung für das gleiche Budget steigern und neue Arten von Cloud Computing-Anwendungen aktivieren“, erläutert Constantin Gonzalez, Principal Solutions Architect bei AWS, die Vorteile des Konzepts.
Das Spot-Modell hat nur einen Haken: Was AWS an Überkapazitäten in den Spot-Markt eingebracht hat, kann es auch jederzeit wieder für sich beanspruchen. Der User bekommt auf jeden Fall eine Vorwarnung.
Kostenkontrolle bei MS Azure und Google Cloud Platform
Was Amazon seit Jahren praktiziert, wird nun endlich auch bei Microsoft Azure zur Methode. Auf der Ignite-Konferenz 2020 kündigte Microsoft mit dem Azure Spot-Computer und dem Azure Advisor Score Werkzeuge an, um Workload-Kosten kontinuierlich zu optimieren. Die neuen Azure-Spot-VM-Funktionen, die in der Vorschau im Azure-Portal verfügbar sind, sollen es Kunden erlauben, auf die Preishistorie von Spot-VMs und den Entfernungssatz der letzten 28 Endtage zuzugreifen und die Daten zu überprüfen. Die neuen Funktionen von Azure Spot VM geben Kunden nicht nur die Möglichkeit, die Wahrscheinlichkeit für die Entfernung ihrer Workloads einzuschätzen. Auch die Abschätzung der Kosten für die Ausführung unterbrechbarer Workloads mit Spot-VMs wird optimiert.
Azure Advisor Score, ebenfalls in der Vorschau, ist ein neues Messwerkzeug im Azure-Portal. Es soll Kunden dabei helfen, basierend auf bewährten Azure-Methoden Kosten, Sicherheit, Zuverlässigkeit, Leistung und Operational Excellence für alle Azure-Ressourcen zu optimieren. Auch VMs lassen sich nun als Spot-Kapazitäten verwenden und abrechnen. Die nötige Automation von Azure ist in der Region Germany West verfügbar geworden.
Weil erst die automatische Kontrolle der Betriebskosten den Betrieb von Cloud-Instanzen wirtschaftlich machen, bietet auch Google einen Cloud Pricing Calculator an. Damit kann der Nutzer die Gesamtgebühren für seine Instanz(en) vor der Buchung berechnen. Die Preistabelle mag ja verständlich sein, doch je nach Lokation der Instanz ändern sich auch die Nutzungsgebühren. Google liefert eine Schätzung der voraussichtlichen Gesamtgebühr.
Gewusst, wie
Bei AWS lassen sich die Betriebskosten auf der Infrastrukturebene durch ein paar Kniffe zusätzlich senken. Im jeweiligen Maße kann der Nutzer diese Beispiele auch auf Azure und Google übertragen.
Man sollte Services implementieren, mit denen die Datenübertragung reduziert wird. So empfiehlt es sich, beispielsweise ein CDN (Content Delivery Netzwerk) wie Amazon CloudFront für die Übermittlung von Inhalten an Endbenutzer, Caching-Layer mit Amazon ElastiCache oder AWS Direct Connect anstelle von VPN für die Verbindung mit AWS zu verwenden.
Der Vorteil von AWS Caching
Wenn die Wahl schwerfällt, schaue man im AWS Cost Explorer nach, wo sich die höchsten Kosten und Volumenströme befinden. Dann überprüfe man die AWS-Services und schaue nach, ob es einen Service gibt, der die Übertragung reduziert oder entfernt, insbesondere die Netzwerk- und Inhaltsbereitstellung. Es ist ratsam, auch nach Caching-Services zu suchen, bei denen wiederholt auf Daten oder große Datenmengen zugegriffen wird. Sie brauchen nicht neu geladen zu werden, was wiederum die Latenzzeit verringert.
(ID:47313839)