Unternehmensprognosen 2017: IoT-Daten am Besten vor Ort analysieren und reduzieren

Analyse von Massendaten benötigt niedrige Latenzzeiten

| Autor / Redakteur: Walter Schadhauser / Rainer Graefen

Die Cloud-Bilder - immer wieder gut für die doch divergierenden Stimmungen der Branche
Die Cloud-Bilder - immer wieder gut für die doch divergierenden Stimmungen der Branche (Bild: Touchdown)

Storage-Insider versucht es in diesem Jahr mal mit einer 360 Grad Prognose. Wir haben verschiedene Speicherhersteller zu einem Statement über ihre Sicht auf das Jahr befragt. Vorerst dominieren Cloud und Container das Bild.

Wer gedacht hat, dass die Welt mit drei Wolken-Kategorien, der zusammenfassenden Beschreibung von Art des Rechenzentrum und Services, doch ausreichend beschrieben sei, der sollte langsam umdenken. Neben der wahrscheinlich bald dominierenden private Public Cloud, einem Gebilde, das öffentlich zugänglich ist, aber im eigenen Datacenter steht, werden wir an Multi-Cloud-Angeboten, Inter-Clouds, Industry Collaborative Clouds und wohl auch der Hyper Hybrid Cloud nicht mehr lange vorbeikommen. Für die Container-Cloud gibt es vorerst nur einen Protagonisten, Storage-Insider. Hier erste Statements über die hohe Bedeutung dieser Entwicklung.

Quantum: Die Verschiebung von Daten zwischen Clouds wird einfacher

Bassam Tabbara, Chief Technology Officer bei Quantum
Bassam Tabbara, Chief Technology Officer bei Quantum (Bild: Quantum)

Container-Lösungen sind bereits Realität! Alle großen Public Cloud Anbieter bieten sie schon jetzt an. Die Implementierung von Containern und Micro Services Architekturen wird in 2017 weiter zunehmen. Das wird die Verschiebung von Daten zwischen Public Clouds sowie Verknüpfungen zwischen Public und Private Clouds enorm vereinfachen.

Container Runtimes wie Docker, rkt und Project Atomic werden standardisiert und somit austauschbar. Zudem werden Plattformen zur Container Orchestrierung wie Kubernetes, Mesos und Swarm zunehmend aktiv weiterentwickelt und eingesetzt.

Rittal: Modulare Rechenzentren werden Edge Computing beschleunigen

Martin Kipping, Director International IT-Projects bei Rittal
Martin Kipping, Director International IT-Projects bei Rittal (Bild: M Kipping/Rittal)

Das Internet der Dinge sowie rechenintensive Analytics-Anwendungen benötigen häufig extrem kurze Latenzzeiten. Die riesigen und kontinuierlich anfallenden Datenmengen, die beispielsweise von dem Internet der Dinge erzeugt werden, erfordern in den meisten Fällen, dass schon am Ort der Datenerzeugung eine erste Datenanalyse vorgenommen wird. Nur mit einem dezentralen Ausbau der IT-Landschaft lässt sich eine IT-technische Unterstützung von verteilten Entwicklungs- und Produktionsstandorten erreichen.

Anbieter werden daher im Jahr 2017 verstärkt modulare und vorkonfigurierte IT-Lösungen einsetzen, die sie schnell und unkompliziert an ihren Standorten aufstellen und in Betrieb nehmen können. Gleichzeitig müssen diese Systeme auch das zukünftige Wachstum des Unternehmens unterstützen, sollten also auf offenen Technologien basieren und skalierbar sein.

Modulare und vorkonfigurierte Komplettsysteme erfüllen die Bedingungen für dieses so genannte Edge Computing, also die Verarbeitung von Daten nahe am Ursprungsort. Hierbei werden an den "Rändern" des Unternehmensnetzwerkes zusätzliche IT-Kapazitäten geschaffen. Laut den Marktanalysten von IDC werden bis 2019 etwa 43 Prozent der durch das IoT erzeugen Daten mit Edge-Computing-Systemen verarbeitet.

Scality: Metadaten mögen In-Memory

Giorgio Regni, CTO bei Scality
Giorgio Regni, CTO bei Scality (Bild: Scality)

Die Flash-Speicherung wird kontinuierlich preiswerter und hält dank ihrer Vorteile – geringe Latenzen, hoher Durchsatz und geringer Stromverbrauch – zunehmend Einzug in Enterprise Speichersysteme und Rechenzentren. Allein im letzten Jahr gab es eine unglaubliche Steigerung in der Flash-Speicherdichte.

Es gibt inzwischen Angebote mit 500 Terabyte in einem einzelnen 3-HE-Chassis, sodass mehrere Petabyte in einem einzigen Rack jetzt Realität geworden sind. Dennoch erfolgt der Zugriff auf Flash-Speicher nach wie vor über eine Storage-basierte Zugriffsebene, also mit traditionellen Dateisystemen und einem SCSI-I/O-Layer.

Im nächsten Jahr werden wir den Siegeszug direkter Speicherzugriffsmethoden (Flash, 3D NAND, 3D XPoint, ReRAM etc.) erleben. Anwendungen wie Datenbanken werden sich zum direkten Speicherzugriff hin entwickeln, um die SCSI-Ebene zu eliminieren.

Cloudian: Der Trend geht zur Hybrid Cloud um die Kontrolle zu behalten

Jacco van Achterberg, EMEA Sales Director, Cloudian
Jacco van Achterberg, EMEA Sales Director, Cloudian (Bild: Cloudian)

"Für das ausklingende Jahr sagten wir voraus, dass Amazon S3 der Standard für Cloud-Speicher werden würde – und wir haben Recht behalten. Der Marktanteil von S3 ist mehr als doppelt so groß wie der aller Mitwettbewerber im Markt für kostengünstigen Objektspeicher.

Der Aufstieg von S3 hängt also direkt mit der gestiegenen Nutzung für Objektspeicher zusammen, der keinesfalls mehr nur ein Nischenprodukt ist. Jeder von uns nutzt durch soziale Medien, Netflix oder andere Dienste Objektspeicher-Technologie, ohne es zu wissen und trägt so dazu bei, Objektspeicher in der Industrie stärker zu verankern.

Für 2017 sehen wir verstärkt Migrationen von Daten in hybride Cloud-Umgebungen. Immer mehr Unternehmen machen den Schritt in die Cloud und wollen mit einer hybriden Cloud die Kontrolle über ihre Daten behalten."

Falconstor: SDS verlängert sein Versprechen kostengünstigen Speichers in die Cloud hinein

Gary Quinn, CEO FalconStor
Gary Quinn, CEO FalconStor (Bild: Hersteller)

"2017 wird als das Jahr in die IT-Annalen eingehen, in dem Unternehmen auf die Hybrid Cloud setzten und sich damit weiter von den Fesseln ihrer Hardwarelieferanten befreiten. Dieses zentrale Versprechen von SDS half in der Vergangenheit, jede Hardware zu nutzen oder ältere Systeme länger zu nutzen.

Heute verlängert SDS dieses Versprechen in die Cloud hinein, indem SDS Hardware von vielen Herstellern in einer Speicherumgebung vereinen kann, inklusive der Public Cloud. Software-definierter Speicher bleibt damit weiterhin die Wahl für Unternehmen, die sich gegen Legacy Storage entscheiden und bietet hier gerade für die Absicherung von Tier-3-Daten immense Vorteile."

Tintri: Container beleben physische Workloads und Automation hält Einzug

Chuck Dubuque, VP of Product and Solution Marketing, Tintri
Chuck Dubuque, VP of Product and Solution Marketing, Tintri (Bild: Tintri)

"Unternehmen wollen und können ihre Rechenzentren eigentlich gar nicht mehr vollkommen selbst verwalten. Die Anforderungen der Digitalisierung an Agilität und Skalierung macht dies fast unmöglich. 2017 wird das Jahr sein, in dem Automatisierung einen enormen Schub bekommt.

Ältere Systeme lassen sich eben kaum oder nur sehr schwer automatisieren und vielerorts ist man auf der Suche nach intelligenten Infrastrukturen, die speziell für Virtualisierung und die Cloud entwickelt wurden und sich besser zur Automatisierung eigenen.

Unternehmen benötigen vor allem Performance, nehmen dafür aber eine höhere Latenz in Kauf, die mit der Virtualisierung einhergeht. 2017 wird deshalb groteskerweise zu einem rückläufigen Trend hin zu physischen Workloads führen – allerdings mit Containern.

Container bieten transaktionalen Workloads die Leistung von physischen Servern, allerdings mit der Abstraktion und der Beweglichkeit von VMs. "Container auf Hardware" kann somit eine echte Alternative für Workloads sein, die schwer zu virtualisieren sind und wo Performance plus Latenz wichtig sind. Container sind außerdem klein und kurzlebig, weswegen sie sich gut für moderne, Cloud-native Workloads eignen."

Zerto: Neue Technologien ebnen den Weg in die Cloud

Paul Zeiter, President bei Zerto
Paul Zeiter, President bei Zerto (Bild: Zerto)

"Im Lauf der letzten Jahre wurde ja immer wieder vorhergesagt, dass die Public Cloud endlich im Markt angekommen sei, was ja 2016 dann auch tatsächlich eingetreten ist," sagt Paul Zeiter. 2017 wird das Jahr sein, in dem sich die Hybrid Cloud als die vorherrschend genutzte Cloud-Umgebung etablieren wird, mit entsprechenden Budgets für die neue Infrastruktur.

Organisationen, die viel Zeit und Ressourcen in ihre eigenen Rechenzentren investiert haben, werden diese natürlich nicht über Nacht abschaffen. Die Hybrid Cloud hingegen erlaubt es, schrittweise den Weg in die Cloud zu gehen, ohne Investitionen unnötig abzuschreiben.

Viele IT-Abteilungen waren bisher zögerlich, sich weiter in die Cloud vorzuwagen, weil sie sich vor mehr Komplexität und Aufwand sorgten. Neue Technologien wie Hypervisor-basierte Replikation helfen dabei, mehr Dienste sicher, einfach und kostengünstig in die Cloud abzugeben."

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44455291 / Branchen/Mittelstand/Enterprise)