Prognose 2016 von Datacore: Revival der Parallelverarbeitung

Compute und Storage Layer wachsen wieder zusammen

| Autor / Redakteur: Walter Schadhauser / Rainer Graefen

Mit geschärftem Blick in die Zukunft sehen. Aber stimmt die Richtung?
Mit geschärftem Blick in die Zukunft sehen. Aber stimmt die Richtung? (Coloures-pic_Fotolia)

Die Verschmelzung von Server und Storage und die gleichzeitigen Fortschritte in der Parallel-I/O-Technik werden 2016 die IT-Branche transformieren. Ähnlich wie bei der Server-Virtualisierung werden die Auswirkungen dramatisch sein.

Die moderne Mikroprozessor-Entwicklung begann in den 1970er Jahren und prägte zusammen mit dem Moore‘schen Gesetz zwei Hauptwege des technologischen Fortschritts:

  • Die erste Entwicklungsrichtung ermöglichte schnellere und effizientere Einzelprozessoren, die zur PC-Revolution und zum heutigen allgegenwärtigen Einsatz von Mikroprozessoren auch in Smartphones und Smart Devices führten.
  • Die zweite Entwicklung bestand im Parallel-Computing mit dem Ziel, die Leistung vieler Mikroprozessoren nutzbar zu machen.

1. x86-Rechner sind ohne Parallel-I/O-Software unterausgelastet

Während die erste Entwicklung zu vielen Prozessorkernen geführt hat, wurde die zweite Entwicklung vernachlässigt. Die heutzutage vorhandene Compute-Power wird allerdings durch den Mangel an Parallel-Verarbeitungsfähigkeiten weitgehend ausgebremst. Das Moore‘sche Gesetz sah vor, dass die Anzahl der Transistoren sich alle zwei Jahre verdoppelt, und so kam es zunächst auch.

Während schnellere Taktraten die PC-Revolution beschleunigten, begannen die Chiphersteller, mehrere Kerne auf die gleiche Plattform zu stellen. Multi-Cores sind heute selbstverständlich und machen parallele Rechenleistung verfügbar. Jedoch mangelt es an Software, um ihre Leistung vollständig zu nutzen.

2016 wird zu einem neuen Wendepunkt im Bereich des Parallel-Computing. Die Auswirkungen werden erheblich sein. Viel größere Kosteneinsparungen und eine deutlich gesteigerte Produktivität werden ermöglicht, indem der Konsolidierungstrend gefördert und es Systemen erlaubt wird, „mit weniger mehr zu erreichen“.

Anwendungsleistung, Arbeitslasten in Unternehmen und größere Konsolidierungsdichten auf virtuellen Plattformen wurden bisher gebremst durch die wachsende Kluft zwischen Compute- und I/O-Verarbeitung. Parallele I/O-Software kann den entstandenen I/O-Engpass überwinden.

2. Software-defined ersetzt den Storage Controller

Eine grundlegende Veränderung ist im Gange, da traditionelle Speichersysteme durch Commodity-Server und Software-Defined-Lösungen ersetzt werden, die dazu beitragen, das wachsende Datenspeicher-Problem zu lösen.

Einfach ausgedrückt: Storage- und Datendienste werden unweigerlich zu einer weiteren Anwendung, die auf kostengünstigen Server-Plattformen ausgeführt wird. Diese Server-basierten Speichersysteme werden als Server-SANs, virtuelle SANs, Web-Scale, Scale-out und hyper-konvergente Systeme vermarktet. Jenseits der Marketing-Oberfläche basieren diese Lösungen auf Standard- Servern, Flash-Karten und Festplattenlaufwerken – die Software macht den Unterschied.

Warum gab es diese Änderung? Traditionelle Storage-Anbieter mit spezialisierten Systemen können nicht mehr Schritt halten mit dem Moore‘schen Gesetz und dem Tempo der Innovationen, die generische Server-Plattformen liefern können. Die Übernahme von EMC durch Dell ist bezeichnend für den Wandel und die Notwendigkeit, die Server- und Storage-Welten miteinander zu verschmelzen, um wettbewerbsfähig zu bleiben. Parallele I/O-Software mit ihrer Fähigkeit, Multi-Core-Server-Technologie zu nutzen, wird 2016 zum großen Impulsgeber. In Verbindung mit Software-definiertem Speicher wird sie eine Revolution im Hinblick auf den "Server als neuen Storage“ etablieren.

3. Hyper-konvergente Systemen machen einen Leistungssprung

Der Hype um Hyper-Konvergenz bekommt Rückenwind. Die einfache Konfiguration erscheint vielen als das Allheilmittel für sämtliche RZ-Probleme. Allerdings erkennen die Ersten, dass sie neue Silos erschaffen, die es zu verwalten gilt, und dass es beträchtliche Einschränkungen im Hinblick auf Skalierbarkeit und Leistungsfähigkeit bei den bisherigen Angeboten gibt. Die Idee vom Investitionsschutz wird nicht von den Konvergenz-Protagonisten geteilt.

Mit Techniken wie Parallel I/O könnte sich das ändern, da diese die Power der Multi-Core-Server effektiver nutzen und auch Flash-basierte wie auch hyperkonvergente Systeme integrieren können. Ähnliches gilt auch für die Umsetzung von Storage Tiers über das Rechenzentrum hinaus in die Cloud.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43828171 / Konsolidierung/TCO)