Große Datenmengen zu kleinem Preis

Solix nutzt Hadoop zum Archivieren

| Autor / Redakteur: Kriemhilde Klippstätter / Tina Billo

Hadoop bedient die drei Kriterien, die besonders bei Big Data kritisch sind: Datenvolumen, Vielfalt und schnelle Verfügbarkeit.
Hadoop bedient die drei Kriterien, die besonders bei Big Data kritisch sind: Datenvolumen, Vielfalt und schnelle Verfügbarkeit. (Bild: Diya Soubra/Solix)

Bis zu 80 Prozent der Informationen in Datenbanken, die von Kernanwendungen benutzt werden, sind inaktiv. Auch deshalb wird die Archivierung als Teil des Information Life Cycle Managements (ILM) immer wichtiger. Solix bietet dafür eine kostengünstige Lösung an.

Die Situation in den Unternehmen ist bekannt: Die Datenberge schießen in den Himmel, die Speicherkosten steigen und die Performance der produktiven Systeme sinkt. Immer sind Unternehmensregeln und Steuergesetze einzuhalten, zeitgleich müssen Risiken minimiert werden. Dazu stoßen Forderungen aus anderen Unternehmensteilen nach Datenauswertung - Stichwort Enterprise Analytics - und Datawarehouse-Anwendungen.

Mit der Verfügbarkeit von kostengünstigen Storage-Lösungen und leistungsstarken Analysewerkzeugen auf Basis von Apache Hadoop gilt es jetzt, die Unternehmensdaten so auszuwerten, dass sie Nutzen für das Geschäft bringen.

Archivieren bedeutet nicht Daten stilllegen

Solix Technologies ist mit dem Produkt "EDMS Database Archiving" angetreten, die weniger oft nachgefragten Daten der produktiven Datenbank zu verlagern und so die Leistung der Anwendung zu optimieren. Der Endanwender kann aber weiterhin uneingeschränkt auf diese Daten zugreifen.

Für die Company aus dem kalifornischen Santa Clara bedeutet Archivierung, dass die Daten migriert, geschützt und indiziert werden. Die Archivierungslösung ist Teil der ILM-Strategie des Unternehmens. Sie sorgt auch dafür, dass die Daten-Governance eingehalten wird, da die Speicherung gemäß den festgelegten Regeln erfolgt.

Die Archivdaten werden dazu klassifiziert. Die Anwender können auch nach der Migration wie gewohnt auf diese zugreifen. Die Lösung taugt für strukturierte und unstrukturierte Daten. Zudem lassen sich auch ganze Anwendungen verlagern.

Hadoop wegen der drei V

Die Frage, warum man die Lösung auf Basis von Hadoop umgesetzt hat, beantwortet Mark Lee, Senior Vice President, Service: "Hadoop bedient alle drei wichtigen Datenkriterien: Data Velocity, Volume und Variety." Gerade im Umfeld von Big Data seien alle drei Bereiche starkem Wachstum ausgesetzt.

"Und mit Hadoop lassen sich hochskalierbare Lösungen zu geringen Kosten erstellen, ohne auf Leistung verzichten zu müssen", erklärt der Manager. Dank des Map Reduce-Programmiermodells lassen sich auch große Datensätze parallel über mehrere Knoten verteilen.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43686586 / Daten)