Suchen

Advertorial: Strategiepapier zur Private / Hybrid Cloud von Crisp Research im Auftrag von NetApp Die gefährliche Schwerkraft der Daten

| Redakteur: Advertorial

Wie Unternehmen Multi-Cloud-Infrastrukturen nutzen und gleichzeitig der Data Gravity ein Schnippchen schlagen.

Firmen zum Thema

Installiert man sein Speichersystem in einem Colocation-Rechenzentrum in der Nähe eines Hyperscalers kann man die konzentrierte Rechenleistung von Azure, Amazon oder Softlayer nutzen, ohne die Privatheit seiner Daten zu verlieren.
Installiert man sein Speichersystem in einem Colocation-Rechenzentrum in der Nähe eines Hyperscalers kann man die konzentrierte Rechenleistung von Azure, Amazon oder Softlayer nutzen, ohne die Privatheit seiner Daten zu verlieren.
(Crisp Research )

Daten sind längst zu einem wichtigen Produktionsfaktor geworden. CIOs müssen daher ihre Strategien für das Datenmanagement kontinuierlich optimieren. Ein wichtiges Mittel ist hierbei die Cloud.

In vielen IT-Infrastrukturen verhindert jedoch die sogenannte Data Gravity das einfache Verschieben der Daten zwischen Clouds und On-Premise-Systemen und somit den effizienten Einsatz von Cloud-Ressourcen. Das Strategiepapier „Die Cloud für alle Fälle“ von Crisp Research zeigt IT-Verantwortlichen, wie sie Multi-Cloud-Infrastrukturen bei gleichzeitiger Datenkontrolle realisieren.

Bildergalerie

CIOs sind mehr denn je gefordert, die digitale Transformation von Prozessen durch flexibel einsetzbare IT-Ressourcen zu unterstützen. Hierbei spielt die Cloud eine wichtige Rolle. Je nach Eigenschaft und Sicherheitsklasse besitzen die vorhandenen Unternehmensdaten jedoch eine gewisse Trägheit, die sogenannte Data Gravity – sie “kleben“ sozusagen an der bestehenden Infrastruktur.

Auch digitale Daten haben Masse, Latenz und Privatheit

Wie aber entsteht Data Gravity überhaupt und warum müssen sich CIOs damit beschäftigen? Es gibt verschiedene Faktoren, die diese Schwerkraft erzeugen, wie beispielsweise die Größe der Daten. Wer eine Storage-Infrastruktur im Multi-Terabyte-Bereich betreibt, wird sich schwer tun, diese Datenmengen auf eine neue Plattform zu migrieren.

Weiterhin können die von Anwendungen geforderten schnellen Zugriffszeiten dafür sorgen, dass das Ausweichen auf eine andere Systemplattform nicht möglich ist. Dann gibt es noch rechtliche Rahmenbedingungen, die es verlangen, dass beispielsweise personenbezogene Informationen nur auf Servern gespeichert werden, die innerhalb Deutschlands stehen.

Diese Beispiele zeigen, wie Data Gravity entstehen kann und warum Informationen dadurch an die zugrundeliegende Infrastruktur gebunden werden. Für die IT-Experten wird es dadurch sehr schwer, Daten flexibel in die Cloud und aus der Cloud zu verschieben und bestehende Datensilos innerhalb der eigenen Organisation aufzulösen.

Die sichere Lücke zwischen privater und hybrider Cloud

Das von NetApp entwickelte Data-Fabric-Konzept schafft hier Abhilfe. Mit der Lösung NetApp Private Storage for Cloud beispielsweise nutzen unsere Kunden unterschiedliche Cloud-Infrastrukturen und behalten dennoch weiterhin die Hoheit über ihre Daten. Wir helfen unseren Kunden, bei ihrem Datenmanagement eine Verbindung zwischen On-Premise-Systemen und Ressourcen aus der Public Cloud herzustellen.

Mit unseren Lösungen unterstützen wir die Abkehr von einzelnen Storage-Arrays und ermöglichen eine dynamische Daten- und Workload-Verschiebung über alle Ressourcen hinweg, inklusive der Cloud. Gleichzeitig behalten CIOs die volle Datenkontrolle, da sich die Unternehmensdaten weiterhin auf NetApp Storage-Systemen befinden, die allerdings sehr nahe an der Public Cloud sind. Somit lassen sich die enormen Ressourcen beispielsweise von Amazon Web Services nutzen und gleichzeitig landesspezifische Compliance- und Governance-Richtlinien einhalten.

Artikelfiles und Artikellinks

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 43464409)