Suchen

HGST, eine WD-Company, fühlt sich gut aufgestellt für die kommenden Jahre 5 Prognosen, wie Speichertechnik das Rechenzentrum schon 2014 verändert

Autor / Redakteur: Mike Cordano, President bei HGST / Rainer Graefen

Die Volumendichte von Festplatten erhöht sich durch die Befüllung mit Helium bei geringerer Leistungsaufnahme. Wichtiger für die Energieeffizienz könnte allerdings sein, dass solche Harddisks unempfindlich gegen Frischluft sind. Manche der Cordano-Prognosen sollte man jedoch mit Vorsicht genießen.

Firmen zum Thema

Diese Festplatte ist mit Helium betankt und deshalb gegen Umwelteinflüsse geschützt. Für Rechenzentren ist das ein Vorteil, da sie nun mit ungefilterter Frischluft kühlen können.
Diese Festplatte ist mit Helium betankt und deshalb gegen Umwelteinflüsse geschützt. Für Rechenzentren ist das ein Vorteil, da sie nun mit ungefilterter Frischluft kühlen können.
(Foto: HGST)

Um die rasante Entwicklung im Bereich Mobile, Cloud Computing, Social Media und Data Analytics zu ermöglichen und voranzutreiben, hat sich die Weiterentwicklung von Lösungen zur Speicherung von Daten in Unternehmens- und Cloud-Rechenzentren in den letzten zehn Jahren stark beschleunigt.

Angesichts der Tatsache, dass immer mehr Unternehmen die Vorteile der sogenannten „3. Plattform“ für mehr Anwendungen und Datensätze nutzen möchten, verspricht das Jahr 2014, dass noch bessere und schnellere Datenspeicherlösungen, Technologien und Architekturen auf den Markt kommen werden.

Bildergalerie
Bildergalerie mit 7 Bildern

Obacht, das Datenwachstum übersteigt die Speicherkapazität

Abseits des „Big Data“-Hypes wurden die Vorteile, die Data Analytics praktisch für alle Branchen und Geschäftsmodelle bietet, eingehend untersucht und beschrieben. Da das Datenaufkommen jährlich um mehr als 40 Prozent steigt, stehen Unternehmen vor der Herausforderung, die Informationen abzufangen, mit denen sie wertvolle Markteinblicke gewinnen und ihre Rendite verbessern könnten.

Unabhängig davon, ob Unternehmen dabei auf neue Speicherlösungen in ihren privaten Rechenzentren zurückgreifen oder öffentliche Cloud-Dienste nutzen, schätzen Branchenexperten, dass die Unterversorgung mit Speicherkapazitäten wegen der Masse der Daten in den kommenden Jahren auf bis zu 60 Prozent ansteigen kann.

Das summiert sich zu einer gewaltigen Menge wertvoller Daten, die einfach verloren geht.

Im Mittelpunkt der Herausforderung stehen nicht nur die Kapazitätskosten, sondern auch die Kosten für den Unterhalt der Rechenzentren. Regulatorische Anforderungen und langfristige, zyklische Analysemuster lassen die Betriebskosten sehr schnell ansteigen, da die langfristige Datenspeicherung einige Jahre, wenn nicht gar Jahrzehnte umfasst.

Mit dem kalten Online-Archiv das Tape ablösen

Während dieser langen Zeitspanne muss sichergestellt werden, dass von Analyse-Anwendungen oder zu Compliance-Zwecken schnell auf Daten zugegriffen werden kann, wofür traditionelle Archivierungsmethoden ungeeignet sind.

Insgesamt lässt sich sagen, dass das hohe Innovationstempo von drei Faktoren beeinflusst wird:

Der erste Faktor bezieht sich auf Volumen, Geschwindigkeit, Werthaltigkeit und Langlebigkeit der Daten.

Unter den zweiten Faktor fallen die Gesamtkosten für die Bereitstellung und den Betrieb von Storage-Systemen im Rechenzentrum.

Der dritte Faktor beinhaltet die Administration von großen Datenvolumen und – was noch bedeutsamer ist – den Zugriff von multiplen Anwendungen auf die Daten über eine lange Zeitspanne.

Im kommenden Jahr empfiehlt es sich, folgende Innovationen im Auge zu behalten, mit denen sich diese Faktoren beeinflussen lassen:

1. Nicht klimatisierte Rechenzentren steigern mit Frischluft die Energieeffizienz

Schätzungen der Umweltorganisation Greenpeace zufolge gehen bereits 2 Prozent des weltweiten Energiebedarfs auf Rechenzentren zurück. Die Energiekosten machen einen erheblichen Teil der Gesamtbetriebskosten von Rechenzentren aus.

Unternehmen konzentrieren sich deshalb nicht allein auf stromsparende Hardware-Komponenten, sondern setzen auch auf den Bau von Rechenzentren, die mit einer Kühlung durch nicht klimatisierte Außenluft betrieben werden, anstatt hierfür traditionelle Kühlungs- und Filtersysteme zu nutzen.

Hierdurch kann die zur Kühlung eines Rechenzentrums benötigte Energie um bis zu 96 Prozent gesenkt werden. Eine zentrale Voraussetzung für die Nutzung solcher „Frischluft-Rechenzentren“ ist Hardware, die gegenüber höheren Umgebungstemperaturen, Feuchtigkeit und Staub weniger anfällig ist.

Es ist zu erwarten, dass IT-Systemanbieter mehr Produkte anbieten werden, die besser gegen Umwelteinflüsse geschützt sind, wie z. B. beschichtete Platinen und versiegelte Festplatten. Sind Letztere zudem mit Helium gefüllt, bieten sie als zusätzlichen Vorteil Einsparungen beim Energieverbrauch von bis zu 23 Prozent.

2. Neue Cold-Storage-Systeme bieten schnellen Zugriff auf mehr Daten bei geringeren Kosten

Daten sind nur dann wertvoll, wenn die enthaltenen Informationen auch zugänglich sind. Eine neue Generation von Speichersystemen schafft eine zusätzliche Architekturebene mit hoher Speicherdichte und Kapazitäten im Petabyte-Bereich zu Kosten, die zwischen traditionellen Festplatten- und Speicherbandsystemen liegen, und ermöglicht dadurch den unmittelbaren Zugriff auf riesige Datenmengen für Analyse- oder Compliance-Zwecke. Ein energieeffizientes Design und eine anpassungsfähige Energieverwaltung können die Stromkosten senken und die Lebensdauer erhöhen.

3. Storage Class Memory wird sich durchsetzen und noch schneller werden

Wenn wir an Data Analytics denken, stellen wir uns häufig Wissensnadeln vor, die in einem riesigen Haufen aus historischen Daten aufgefunden werden müssen. Doch Echtzeitanalysen und Automatisierungssysteme können für Branchen, die sehr zeitkritisch arbeiten, sogar noch wertvoller werden.

Diese Höchstleistungsanwendungen profitieren davon, dass nur noch Millionstel Sekunden der Zeit benötigt werden, um die Daten zu den zentralen Prozessoren zu leiten. Um diesen Ansprüchen gerecht werden zu können, unterstützen die SCM-Lösungen (Storage Class Memory) die CPU durch den mit hoher Bandbreite arbeitenden PCI-Express-Bus im Server.

Bis vor kurzem waren die Kapazitäten dieser Cache-Module begrenzt und mussten einem bestimmten Server oder den jeweiligen Anwendungen zugewiesen werden. Im Jahr 2014 könnte eine neue Entwicklungswelle SCM-Lösungen lostreten, die auf eine Speicherkapazität von mehreren Terabyte pro Karte hoffen lässt, die von mehreren Server und von Scale-out-Anwendungen gemeinsam genutzt werden kann.

4. Objekt-basierte Speichersysteme erschließen Hyperscale-Kapazitäten für die Massen

Zum raschen Wachstum der Datenmengen kommt die Belastung, Speicherkapazitäten installieren und steuern zu müssen, die sicherstellen, dass die Anwendungen die Daten, die sie benötigen, leicht und zuverlässig auffinden. Öffentliche Cloud-Service-Provider, die Millionen User verwalten müssen, stürmen mit objekt-basiertes Storage-Systemen voran und haben die Nase vorn gegenüber Datei-basierten Speichersystemen (NAS-Lösungen).

Dank Open-Source-Initiativen wie Ceph und Open-Stack Swift, dürfen wir 2014 mit objekt-basierten Storage-Systemen rechnen, die sich aufgrund zahlreicher Einsatzmöglichkeiten den Weg in mehr Mainstream-Rechenzentren von Unternehmen bahnen werden. Über NAS-to-Object-Storage-Gateways können Unternehmen ihre bereits vorhandenen Anwendungsinvestitionen weiter einsetzen und die Vorteile hochskalierbarer und leicht zu administrierender Repository-Systeme nutzen.

Mit Open-Source und REST-Schnittstellen (Representational State Transfer) können die Architekten von Rechenzentren auch zwischen privaten, öffentlichen oder hybriden Objekt-basierten Speicherlösungen wählen, um ihre Anwendungsanforderungen zu bedienen, neuen Herausforderungen begegnen oder einen eigenen nahtlosen Entwicklungspfad einschlagen.

5. Flash- und Festplatten-Speicher – gemeinsam zum Erfolg

Die Welt der Datenspeicherung war einmal so einfach. Daten wurden generiert, gespeichert und archiviert. Heute leben Daten nach ihrer Entstehung noch über Jahre weiter. Und in diesem Zeitraum greifen unterschiedlichste Anwendungen auf die Daten zu, nicht nur die Anwendung, von der die Daten einmal generiert wurden.

Die Kombination von Langlebigkeit und Aktivität stellt ganz neue Anforderungen an das Ökosystem Datenspeicherung. Ein unveränderter Speicherort von der Entstehung der Daten und für Jahre mit regelmäßigem Datenzugriff ist entweder zu teuer oder zu langsam. Da trifft es sich gut, dass für das Jahr 2014 eine neue Generation von Lösungen unter dem Oberbegriff Software-defined Storage 2.0 (SDS 2.0) erwartet wird.

SDS 2.0, das neue ILM?

Durch eine enge Integration von Software mit Speicherpools in mehreren Schichten und Preis-Leistungsbereichen können mit SDS-2.0-Lösungen Daten basierend auf ihrem jeweiligen Status im Nutzungszyklus auf dynamische Weise in der Speicherschicht und auf der Cache-Ebene abgelegt werden, die am kosteneffektivsten ist.

Mit diesem Modell verspricht die Werthaltigkeit von Performance und Kapazität mit automatisierter Verwaltung und zu optimierten Kosten zu neuen Höhen aufzusteigen. Traditionell waren bisher Server und Anwendungen die Stars im Rechenzentrum. Das Volumen, die Geschwindigkeit, der Wert und die Langlebigkeit von Daten lassen jetzt eine Ära beginnen, in der die Datenspeicherung zum wichtigsten Wegbereiter für künftige Entwicklungen in Rechenzentren wird.

Das bedeutet nicht, dass die Verarbeitung der Daten einfach ist. Doch Daten sind zur aktuellen Währung in der Welt der Geschäftsdatenanalyse geworden und müssen gespeichert und problemlos verfügbar gemacht werden, damit Unternehmen ihr volles Potenzial ausschöpfen können.

(ID:42569514)