Prognose 2017 von Scality: der Datentransport kennt nur noch eine Richtung

Die Echtzeitanalyse wird nicht mit ausgelagerten Daten erfolgen

| Autor / Redakteur: Giorgio Regni / Rainer Graefen

Manches bleibt, vieles ändert sich.
Manches bleibt, vieles ändert sich. (Bild: © EtiAmmos_Fotolia.com_126867133)

Der IT-Fokus wandert von der Hybrid- zur Multi-Cloud, heißt eine Prognose von Giorgio Regni, CTO bei Scality. Noch beherrschen die diverse Kategorien der Cloud das Marketing, in Zukunft werden wir Service-Cloud für die unterschiedliche Unternehmenszwecke sehen. Für den Bereich Storage dürften Data Control Layers interessanter sein, da diese Metadatenlayer die statistische Sicht auf die realen Daten beschleunigen werden.

Die Hybrid-Cloud, also die Möglichkeit, alle Infrastrukturen vom Rechenzentrum vor Ort bis zur Cloud nahtlos zu managen, ist keine optimale Lösung für Daten-intensive Anwendungen. Stattdessen werden Unternehmen sich zunehmend auf mehrere Clouds konzentrieren.

Diese Multi-Cloud-Umgebungen sind unabhängige Services, die jeweils für unterschiedliche Anwendungsbereiche gedacht sind. Dafür werden neue Management-Frameworks für die Bereitstellung eines einzigen Rechenzentrum-Services entstehen, mit dem die IT-Richtlinien und Datensicherung über mehrere Clouds hinweg gemanagt werden.

Entstehen eines Data Control Layers

Mit der zunehmenden Dominanz der Multi-Cloud werden die Unternehmen die umfassende Kontrolle des Daten- und Benutzermanagements über alle Clouds hinweg anstreben. Daher wird ein neuer Data Control Layer (DCL) entstehen, mit dem für die Daten großer Unternehmen Governance- und Sicherungsrichtlinien angewendet werden können.

Das stellt die sichere Verschlüsselung, Zugangskontrolle und reichhaltige Metadaten-Services über mehrere Clouds hinweg sicher. Mit dem Data Control Layer erhalten Sie die volle Kontrolle über Ihre Metadaten, die gleichzeitig vollständig mit Ihrem Benutzer-Directory-System integriert sind.

Mit der Entwicklung dieses intelligenten Data Control Layers im nächsten Jahr werden zahlreiche der versprochenen aber bis jetzt unerfüllten Vorteile von Multi-Cloud-Deployments Wirklichkeit: mehr Hardware- und Anbieterunabhängigkeit, flexible Personalisierung, optimierte Performance und minimale Latenzen sowie erhebliche Reduzierung der Gesamtbetriebskosten.

Vom Flash-Speicher zu In-Memory

Die Flash-Speicherung wird kontinuierlich preiswerter und hält dank ihrer Vorteile – geringe Latenzen, hoher Durchsatz und geringer Stromverbrauch – zunehmend Einzug in Enterprise Speichersysteme und Rechenzentren. Allein im letzten Jahr gab es eine unglaubliche Steigerung in der Flash-Speicherdichte.

Es gibt inzwischen Angebote mit 500 Terabyte in einem einzelnen 3-HE-Chassis, sodass mehrere Petabyte in einem einzigen Rack jetzt Realität geworden sind. Dennoch erfolgt der Zugriff auf Flash-Speicher nach wie vor über eine Storage-basierte Zugriffsebene, also mit traditionellen Dateisystemen und einem SCSI-I/O-Layer.

Im nächsten Jahr werden wir den Siegeszug direkter Speicherzugriffsmethoden (Flash, 3D NAND, 3D XPoint, ReRAM etc.) erleben. Anwendungen wie Datenbanken werden sich zum direkten Speicherzugriff hin entwickeln, um die SCSI-Ebene zu eliminieren.

Konvergenz von Object Storage und Analyse

Heutzutage wird Object Storage für Speicherkapazitäten von Hunderten Terabyte bis hin zum Petabyte-Bereich verwendet. Es ist aber absolut ineffizient, diese Daten aus dem Speicher abzurufen, um sie zu analysieren. Stattdessen werden die Analyseverfahren schon bald in die Speicher-Technik eingebettet werden. In diesem Bereich werden die Anbieter von Object Storage eine Vorreiterrolle spielen.

Vormarsch der Metadaten

Bisher haben Unternehmen ihre Daten auf Network Attached Storage (NAS) oder Storage Area Network (SAN) Arrays gespeichert. Diese Technik wurden jedoch noch für Systeme entwickelt, in denen Anwendungen und Daten eng miteinander verwoben waren und sich typischerweise im selben Rack befanden.

2017 werden wir den Vormarsch der Metadaten erleben – auf den Speicherarrays werden dann sowohl die eigentlichen Daten als auch die zugehörigen relevanten Metadaten gespeichert. Beispielsweise sollen Gesundheitsdaten gemeinsam mit personenbezogenen Patientendaten wie Name, Adresse, demografischen Informationen etc. gespeichert werden. Und das wird durch Metadaten möglich.

In Bereichen wie Medizin, Finanzen, Medien/Unterhaltung wird das Datenmanagement über Metadaten erheblich zunehmen. Dafür werdend die Metadaten indexiert und damit als Teil der Speicherschicht durchsuchbar gemacht.

Amazon dominiert den Cloud-Vektor

Das ist keine große Überraschung, aber niemand wird Amazon so leicht von seiner Position als führender Cloud-Anbieter der Welt verdrängen. Dennoch wird Amazon Partnerschaften mit Anbietern von Private Cloud Services eingehen, die dem Amazon-Design wie beispielsweise mit der S3-Schnittstelle für die Speicherung folgen.

Amazon wird seine Entwicklungs-APIs als Standardschnittstellen für Cloud-Management/Orchestration und Daten/Speicher-Services etablieren wollen. Für die Multi-Cloud bedeutet das, dass Amazon mit Anbietern zusammenarbeiten wird, die Cloud-Infrastrukturen mit diesen APIs verwenden.

Oracle wird ein größerer Cloud-Anbieter

Spezialisierte Clouds mit Funktionen speziell für bestimmte Untersegmente des IT-Markts werden sich weiterentwickeln. Einer dieser Anbieter wird Oracle sein, der sich innerhalb der spezialisierten Datenbank-Community etablieren wird.

Datenbasierte Entscheidungen durch IoT-Sensoren

Das Internet der Dinge wird seinen Siegeszug fortsetzen und diese Technik wird nicht unbedingt von Hightech-Unternehmen genutzt werden, sondern von eher traditionellen Herstellern. GE hat dieses Jahr bereits bewiesen, dass traditionelle Unternehmen mit dem IoT hochwertigere Dienstleistungen anbieten können, weil sie ihre Kunden dadurch besser verstehen. Aus diesem Grund wird diese Technik in klassischen Industrien wie Transport, Logistik, Herstellung, Medizin und Energie zunehmend Fuß fassen.

2017 werden sich einige Techniken verabschieden

Das Magnetband verlässt uns (schon wieder?, die Red.) – die Kosten sprechen nicht mehr für diese Technik und sie kann durch den sequenziellen Datenzugriff der zunehmenden Nachfrage nach hohen Speicherkapazitäten und der gleichzeitigen Möglichkeit, diese Daten zu analysieren, nicht mehr gerecht werden. Der einzige noch verbleibende Markt ist die Wartung bei Bestandskunden.

Hadoop Mapreduce wird von Apache Spark verdrängt – mit dem zunehmenden Bedarf an Analyselösungen und größeren, preiswerteren Speicherumgebungen wird die Nachfrage nach In-Memory-AnalyseTechniken und damit nach Apache Spark zunehmen.

Und das bedeutet den Niedergang von Mapreduce. Spark wird sich als wichtigster verteilter Analyseansatz im Hadoop Ökosystem etablieren und daher wird es Mapreduce in einigen Jahren nicht mehr geben.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44457031 / Allgemein)