Mobile-Menu

Grundlagen des Cloud-Storage, Teil 3 Cloud-Speicher kostengünstig wählen und optimieren

Von Michael Matzer 5 min Lesedauer

Anbieter zum Thema

Alle Cloud-Storage-Anbieter kennen Speicherklassen, denn Daten werden zu verschiedensten Zwecken in der Cloud abgelegt. „Heiße“ Daten erzeugen indes höhere Gebühren als „kalte“ Daten, die im Archiv schlummern. Je nach Workload und Zugriffsfrequenz lassen sich daher die Speicherkosten über die dynamische Optimierung der Speicherklassen reduzieren, am schnellsten automatisch mithilfe eines Algorithmus.

Die Preise für Cloud-Speicher differieren je nach Bedarf und Angebot erheblich.(Bild:  kanpisut - stock.adobe.com)
Die Preise für Cloud-Speicher differieren je nach Bedarf und Angebot erheblich.
(Bild: kanpisut - stock.adobe.com)

Der Gartner-Report „Magic Quadrant for Enterprise Backup and Recovery Software Solutions“ kommt unter anderem auf das Thema „Ausgaben“ zu sprechen. Wenn Nutzer in einem Unternehmen arbeiten, das Daten lange aufbewahren muss, sollten sie sich die Lizenzen genau ansehen: Unbefristete Lizenzen stehen abonnementbasierten Lizenzmodellen gegenüber. Anwender müssen herausfinden, mit welchem Preismodell sie besser fahren: VM-basiert, Socket-basiert, Node-basiert oder Agent-basiert. Gartners Rat: „Investieren Sie in das richtige Modell, basierend auf der Anwendungs- und Infrastruktur-Roadmap des Unternehmens.“ Dann habe dieses beste Überlebenschancen.

Bildergalerie
Bildergalerie mit 6 Bildern

Aufgrund des Fachkräftemangels auch in der Informatik ist es ratsam, alle Storage-Systeme, Prozesse und Workloads zu automatisieren. Modernste Backup/DR-Lösungen sind in der Cloud als SaaS-Angebote zu finden, aber auch in On-Premises- und Hybrid-Cloud-Betriebsmodellen lassen sich kosteneffiziente Schutztechnologien realisieren.

Immer mehr Unternehmen wenden sich von der Public Cloud ab, weil deren Abo-Gebühren sich erstens als höher erweisen als der In-house-Betrieb (der wiederum mehr Hardware-Investitionen erfordert) und weil dafür zweitens angeblich Spezialisten benötigt werden, die eine Schutzlösung in der Public Cloud konfigurieren müssten. Wenn man jedoch eine SaaS-Lösung für Backup und Disaster Recovery wählt, muss der Dienstleister diese Spezialisten vorhalten.

Niedrigere Betriebskosten (TCO) sollen Kunden mithilfe folgender Leistungsmerkmale erzielen können. Moderne Lösungen bieten erweiterte Multi-Cloud-Speicher- und Orchestrated-Tiering-Funktionen. Diese Clouds sind in erster Linie AWS, Google Cloud (GCP) und MS Azure. Durch diese Integration sollen die Kunden ihre Kosten für Backup-Speicher um bis zu 95 Prozent senken können.

Das ließe sich etwa durch die automatische Verschiebung von Workloads von hochpreisigen Storage-Tiers, die schnellen Flash-Memory nutzen, auf kostengünstigere Tiers wie etwa AWS S3 Glacier realisieren.

Weil aber das Bewegen von Daten über Cloud-Regionen hinweg Gebühren erzeugt, werden sowohl die optimale Nutzung der Ursprungslokation als auch der damit verbundene CO2-Fußabdruck eine wachsende Rolle bei den Kosten der Cloud-Nutzung fürs Datenmanagement spielen. Wie in Teil 2 unserer Serie soll AWS nur als Beispiel für solche Optionen und Speicherklassen dienen. MS Azure, GCP und viele andere bieten ähnliche Optionen.

Kostenoptimierung in AWS S3

Jeder Objektspeicher weist verschiedene Leistungsstufen und Aufbewahrungszeiten auf. Danach richten sich nämlich die Gebühren, die der Abonnent solcher Dienste zu entrichten hat. Je seltener der Zugriff, desto preisgünstiger die Nutzung des Dienstes. Daher zahlt es sich in Heller und Pfennig aus, seltener benötigte Dateien schnellstmöglich und vor allem automatisch auf eine niedrigere Leistungsstufe zu verschieben. Auf diesen Leistungen basieren auch die unten genannten Anwendungsfälle. Die folgende Beschreibung von S3-Speicherklassen findet sich so oder ähnlich auch bei den anderen oben genannten Cloud-Storage-Anbietern.

„Mit kostengünstigen Speicherklassen und einfach zu verwendenden Funktionen können Sie Kosten optimieren, Daten organisieren und fein abgestimmte Zugriffskontrollen konfigurieren, um spezifische geschäftliche, organisatorische und Compliance-Anforderungen zu erfüllen“, erklärt Michael Hanisch, Technikexperte bei AWS Deutschland. „Dabei gilt Amazon S3 nicht nur ‚laut Anbieter‘ als sicher, sondern dies ist auch durch unabhängige Prüfer im Rahmen verschiedener Zertifizierungen bescheinigt worden. Unter diesem Link lässt sich beispielsweise einsehen, in welche Zertifizierungen Amazon S3 einbezogen wurde.“

Amazon-S3-Intelligent-Tiering: „Für Daten mit wechselbaren, unbekannten oder unvorhersehbaren Zugriffsmustern, wie Data Lakes, Analytik oder neue Anwendungen, verwenden Sie S3-Intelligent-Tiering, das automatisch Ihre Speicherkosten optimiert. S3-Intelligent-Tiering verschiebt automatisch Ihre Daten zwischen drei Zugriffsebenen mit niedriger Latenz, die für häufigen, mäßigen und seltenen Zugriff optimiert sind. Wenn Teilmengen von Objekten mit der Zeit archiviert werden, können Sie die Archiv-Zugriffsebene aktivieren, die für den asynchronen Zugriff entwickelt wurde.“

Amazon S3 Standard: „S3 Standard ist ein Objektspeicher mit langer Lebensdauer, hoher Verfügbarkeit und hoher Leistung bei häufigen Datenzugriffen. S3 Standard bietet niedrige Latenzzeiten und einen hohen Durchsatz und eignet sich für eine Vielzahl von Anwendungsfällen.“ 5 GB Speicherkapazität im S3 Standard sind für zwölf Monate mit dem AWS-Speicherkontingent kostenlos inbegriffen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Amazon S3 Standard-Infrequent Access (S3 Standard-IA): „S3 Standard-IA ist eine Speicherlösung für Daten, auf die seltener zugegriffen wird, die bei Bedarf jedoch schnell abrufbar sein müssen.“

Amazon S3 One Zone-Infrequent Access (S3 One Zone-IA): „S3 One Zone-IA ist eine Speicherlösung für Daten, auf die seltener zugegriffen wird, die bei Bedarf jedoch schnell abrufbar sein müssen. Im Gegensatz zu anderen S3-Speicherklassen, die Daten in mindestens drei Availability Zones (AZs) speichern, speichert S3 One Zone-IA Daten in einer einzigen AZ und kostet um 20 Prozent weniger als die S3 Standard-IA.“

Amazon S3 Glacier Instant Retrieval: „S3 Glacier Instant Retrieval ist eine neue Archivspeicherklasse, die den kostengünstigsten Speicher für langlebige Daten bietet, auf die nur selten zugegriffen wird und die einen Abruf in Millisekunden erfordern. Mit S3 Glacier Instant Retrieval können Sie im Vergleich zur Speicherklasse S3 Standard-Infrequent Access (S3 Standard-IA) bis zu 68 Prozent der Speicherkosten sparen, wenn auf Ihre Daten einmal pro Quartal zugegriffen wird.“

Amazon S3 Glacier Flexible Retrieval: „S3 Glacier Flexible Retrieval bietet einen kostengünstigen Speicher mit bis zu 10 Prozent niedrigeren Kosten (als S3 Glacier Instant Retrieval) für Archivdaten, auf die ein- bis zweimal pro Jahr zugegriffen wird und die asynchron abgerufen werden.“

Amazon S3 Glacier Deep Archive: „S3 Glacier Deep Archive ist die kostengünstigste Speicherklasse von Amazon S3 und unterstützt die Langzeitarchivierung und Erhaltung digitaler Daten, auf die ein oder zwei Mal im Jahr zugegriffen wird. Sie wurde für Kunden erstellt – besonders jene in stark regulierten Branchen wie Finanzen, Gesundheit und dem öffentlichen Sektor –, die Datensets 7 bis 10 Jahre oder länger aufbewahren, um regulatorische Compliance-Anforderungen zu erfüllen.“

S3 Outposts: „Amazon S3 auf Outposts liefert Objekt-Speicherplatz für eine On-Premises-AWS-Outposts-Umgebung ((https://aws.amazon.com/de/outposts/)). S3 auf Outposts bietet eine einzelne Amazon S3-Speicherklasse namens ,S3-Outposts‘, die die S3-APIs verwendet und dafür ausgelegt ist, Daten über mehrere Geräte und Server auf Ihren Outposts dauerhaft und redundant zu speichern.“

Bildergalerie
Bildergalerie mit 6 Bildern

Speicherhilfswerkzeuge

Das Tool „S3-Speicherklassenanalyse“ erteilt Auskunft darüber, in welchen Zugriffsmustern die Speicherklassen genutzt werden, und gibt so eine Entscheidungshilfe, wann die passenden Daten in die passenden Speicherklassen übertragen werden sollten.

Viele Daten müssen nicht für die Ewigkeit aufbewahrt werden. Das wäre kontraproduktiv und kostspielig. Außerdem gibt es Gesetze dagegen, so etwa die DSGVO. Als weiteres AWS-Werkzeug erlaubt es die S3-Lebenszyklusverwaltung, nicht nur Regeln für den (kostenpflichtigen) Übergang zu einer anderen Speicherklasse zu formulieren und auszuführen, sondern auch Regeln für das zeitbedingte Löschen von Daten, die ihr „Verfallsdatum“ erreicht haben. Amazon S3 erledigt letzteres automatisch und kostenlos.

Aktuelles eBook

NAS oder Cloud-Storage?

eBook NAS oder Cloud-Storage
eBook „NAS oder Cloud-Storage?“
(Bild: Storage-Insider)

Eine der zentralen Fragen für nahezu alle Unternehmen lautet: Wohin mit den großen Datenmengen? Unser neues eBook vergleicht Vor- und Nachteile von NAS-Geräten und Cloud-Speicherlösungen. Diese unterscheiden sich in vielerlei Hinsicht, sei es bei der Skalierbarkeit, Daten- und Zugriffssicherheit und Compliance – doch der Nutzer sollte sich stets die Frage stellen: „Für welche Anwendung benötige ich diesen oder jenen Speichertyp?“

Die Themen im Überblick:

  • Wohin mit der ausufernden Datenflut?
  • Vor-Ort-Speicher in einem verteilten Netzwerk
  • Cloud-Speicher in verteilten Rechenzentren

(ID:50248590)