In-Memory Computing

Vollgas mit Flash-Speicher

| Autor / Redakteur: Ute Gregorius / Nico Litzel

Die Autorin: Ute Gregorius ist Sales Director DACH bei Fusion-io
Die Autorin: Ute Gregorius ist Sales Director DACH bei Fusion-io (Bild: Fusion-io)

In-Memory-Technologien bieten Unternehmen erstmals die Möglichkeit, Datenmengen in Big-Data-Dimensionen wirklich effizient zu nutzen. Für eine optimale Performance bei der Datenanalyse in Echtzeit kommt dem Speicherkonzept eine wesentliche Rolle zu, wie das Beispiel des neuen SQL Server 2014 von Microsoft verdeutlicht.

Unternehmen erfassen mit jedem Tag mehr Daten als je zuvor. Wurde 2010 erstmals die Zettabyte-Marke geknackt, rechnen die Analysten von IDC mit einem Volumen von mehr als 35 Zettabyte im Jahr 2020. Big Data ist also im breiten Markt angekommen.

Unternehmen, die davon profitieren wollen, stehen gleich vor mehreren Herausforderungen. Zum einen müssen sie Mittel und Wege finden, diese Daten effizient zu analysieren. Zum anderen spielt bei der riesigen Datenmenge auch die Geschwindigkeit eine große Rolle, also die schnelle Verfügbarkeit von Daten. Denn Verzögerungen werden sowohl auf Unternehmens- wie auf Anwenderseite immer weniger toleriert.

Ob der Zugriff auf Informationen und Analysen, das Streaming von Musik oder Videos oder Sofortlieferungen bei Online-Bestellungen – alles muss unmittelbar bereit stehen. In-Memory Computing wurde zwar genau zu diesem Zweck „erfunden“ – große Datenmengen in kürzester Zeit zugänglich und nutzbar zu machen. Aber erst die rasante Entwicklung der letzten ein bis zwei Jahre, gepaart mit technologischen Weiterentwicklungen auf Hardware- und Software-Seite, haben dazu geführt, das Konzept dem breiteren Markt zugänglich zu machen. Neben SAP und Oracle, die ihr Portfolio erst kürzlich erweitert haben, sind IBM und Microsoft die neuesten Player in Sachen In-Memory Computing.

Angebote für den Mittelstand

War In-Memory Computing bis dato „nur“ eine Lösung für Großunternehmen, gibt es mittlerweile auch Angebote für den Mittelstand. Ebenso wie viele Konzerne und Forschungseinrichtungen versprechen sich mittelständische Unternehmen von der Datenanalyse in Echtzeit neue Erkenntnisse und Wettbewerbsvorteile.

Unabhängig von den unterschiedlichen Spezifikationen sind die Vorteile schnell ersichtlich: Die Zugriffgeschwindigkeiten innerhalb des RAM sind erheblich schneller, sodass pro Sekunde deutlich mehr Transaktionen durchgeführt und Latenzzeiten wesentlich verringert werden können. Das Bereithalten ganzer Datenbanken in Terabyte-Dimensionen innerhalb des Arbeitsspeichers ist heute keine Utopie mehr. Ein Reporting ist mittlerweile in Stunden statt Tagen – manchmal sogar in wenigen Sekunden – durchgeführt.

Inhalt des Artikels:

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42862937 / Big Data)