CERN hilft mit ‚openlab’ bei der Entwicklung des Datenspeichers der Zukunft

Materie besteht zu 99,99 Prozent aus Leere. Wie speichert man den Rest?

| Autor / Redakteur: Carsten Wunderlich / Rainer Graefen

Künstlerische Darstellung des Higgs-Feldes
Künstlerische Darstellung des Higgs-Feldes (CERN)

Lässt man Elementarteilchen mit Lichtgeschwindigkeit aufeinanderprallen und versucht dann aus den Bruchstücken der Kollision zu erkennen, ob irgendwas ganz geblieben ist, dann hat man eventuell einen neuen Baustein der Materie entdeckt. Speichertechnisch betrachtet hätte diese Erkenntnis über die Natur allerdings immense Auswirkungen.

In einer hoch gelobten Präsentation über Arbeit und Ergebnisse des Large Hadron Collider des CERN auf dem Nexenta OpenSDx Summit erläuterte Günther Dissertori, Professor für Teilchenphysik am CERN, wie Partnerschaften zwischen öffentlichen Institutionen und privaten Unternehmen die zu erwartenden technologischen Schwierigkeiten beim größten Experiment der Menschheit überwinden können. Hierzu gehört die Entwicklung neuer Speichertechnologien, die in Zukunft Exabytes an Daten speichern können.

Eine 45 minütige Präsentation von Guenther Dissertori über die Leere des Raumes, der Materie und der Kräfte, die das Universum gestalten.

Eine atomare Nadel aus "heuähnlichem" Material

Der Large Hadron Collider (LHC) am CERN in der Schweiz ist die größte und komplexeste jemals von Menschenhand gebaute Maschine. Dort werden Teilchen im 27 Kilometer langen Ringtunnel mehr als 100 Meter unter der Erde fast auf Lichtgeschwindigkeit beschleunigt um zu kollidieren.

Mit diesem Experiment sollen die Teilchen gefunden werden, aus denen alle Atome, alle Moleküle und damit jegliche Materie besteht. Die Detektoren, die die Teilchenkollisionen aufzeichnen, verfügen über 100 Millionen Datenausgabe-Kanäle und nehmen 14 Millionen Bilder pro Sekunde auf.

Natürlich müssen alle Bilder gespeichert und irgendwann analysiert werden. Diese Aufgabe stellt alles bisher Dagewesene in den Schatten, wie Dissertori erläutert: „Die Suche nach dem Teilchen ist schlimmer als die Suche nach der Nadel im Heuhaufen. Wir bekommen 14 Millionen Heuhaufen pro Sekunde – und dummerweise sieht die Nadel auch noch aus wie Heu.“

Die Grid-Verteilung

Das Experiment erzeugt circa drei GByte Daten pro Sekunde oder einen riesigen 25 PByte Daten-Heuhaufen pro Jahr. Als das Experiment vor 15 Jahren entworfen wurde, wusste das CERN-Team schon, dass es irgendwo ein immenses Datenvolumen speichern müsste und man gedachte diese Aufgabe mit Tapes und etwas später mit einem Storage-Grid zu meistern.

Damals war das bereits eine riesige Datenmenge, für die es keine passende Speichertechnologie gab. Daher musste das CERN tun, was es schon seit Beginn seiner Forschung tut: Innovative Technik aus der Taufe haben.

Im Laufe der Jahrzehnte hat das CERN den Ruf erworben, eine der besten Forschungseinrichtungen der Welt zu sein. Neben der Hauptaufgabe, der elementaren Forschung, musste das CERN regelmäßig zusätzliche ‚Abfallprodukte’ entwickeln, um seine Forschung überhaupt erst möglich zu machen.

Beispielsweise entwickelte CERN das Grid-Computing, um für seine mehr als 40.000 Forscher Daten auf 140 Rechenzentren in über 40 Ländern zu verteilen.

Weltweite Datendistribution

Dank seines Expertenwissens zu Teilchen, Analysen und IT hat das CERN außerdem einen Beschleuniger erfunden, mit dem Krebs effektiver behandelt werden kann als mit Standardverfahren wie der Bestrahlung.

Bestrahlungstechnologien und Computertomografie sind weitere Beispiele für Anwendungen von CERN-Technologien in der Medizin. Auch das Internet, oder das HTTP-Protokoll wurden ursprünglich erfunden, um die Arbeit der Wissenschaftler und Techniker zu erleichtern, die das LHC Anfang der 1980er planten.

Um die riesigen Mengen an Forschungsdaten zu speichern, die das CERN erzeugt, und sie für Forscher zugänglich zu machen, ist die gesamte Datenspeicherungs-Struktur in Ebenen aufgebaut. Das CERN ist Ebene null, der Startpunkt.

Von hier aus werden die Daten an einige wenige Zentren auf Ebene zwei an viele weitere kleinere Zentren auf Ebene drei verteilt, so dass Forscher auf der ganzen Welt auf die Daten zugreifen können. Datenübertragungsraten von bis zu 7 Gbit pro Sekunde machen es möglich, die Daten für die 14 Millionen monatlichen Analyse-Jobs zur Verfügung zu stellen.

Kann Speicher-Hardware Speicherprobleme des CERNs lösen?

Das LHC-Experiment läuft seit drei Jahren und hat noch viele Jahre vor sich, und Dissertori schätzt, dass das CERN bisher erst 1 Prozent aller Daten daraus gesammelt hat. Um die Daten möglichst optimal zu nutzen, ist das CERN daran interessiert, intensiv an allen Entwicklungen in den Bereichen Datenspeicherung, Cloud-Technologien, Datenanalysen und Datensicherheit beteiligt zu sein, die die Grenzen der bekannten Techniken überschreiten.

Um dieses Ziel zu erreichen, hat das CERN „openlab“ eingeführt, eine einzigartige öffentlich-private Partnerschaft zwischen dem CERN und allen interessierten IT-Unternehmen, um die Entwicklung innovativer Lösungen für die weltweite LHC-Community zu beschleunigen.

Im Rahmen dieser Initiative erhält das CERN Zugang zu frühen Entwicklungen neuer Techniken und kann mit Partnern zusammenarbeiten, um erstens die technischen Grenzen auszureizen und sich zweitens zu vergewissern, dass die jeweilige Technik für das CERN die akuten Speicherprobleme lösen könnte.

Eine klassische Win-Win-Situation, da die Testzyklen sehr kurz sind und Unternehmen von den strengsten Testumgebungen für ihre Technologien profitieren, um dann CERN-gestählte Produkte einem großen Markt anbieten zu können.

Speichern respektive aktiv Archivieren

Das CERN ist sicherlich das Extrembeispiel für wachsende Datenmengen, aber Unternehmen aller Arten stehen vor ähnlich generellen Herausforderungen: Sie müssen riesigen Datenvolumen verarbeiten und die Daten auf sichere, flexible und erschwingliche Weise speichern.

Unabhängig davon, ob das Ziel darin besteht, 14 Millionen Selfies, 14 Milliarden Tweets oder 14 Millionen Forschungs-Heuhaufen zu speichern, können Unternehmen wie auch die Forscher beim CERN im Rahmen des openlab-Programms, bessere Lösungen für alle entwickeln. Auf Open Source basierende Lösungen, die den Weg zum softwaredefinierten Rechenzentrum beschreiten, scheinen die besten Voraussetzungen dafür zu haben.

Tarkan Maner, CEO von Nexenta und Moderator des OpenSDx Summit, kommentierte nach der Präsentation, die viele der Zuhörer sehr beeindruckte: „Ich bin erstaunt, was für großartige Leistungen im Laufe vieler Jahre am CERN erbracht worden sind.

Wir bei Nexenta wissen bereits viel darüber, wie wir die Datenflut der Zukunft angehen sollten. Die Präsentation von Professor Dissertori hat meine Überzeugung bestätigt, das nur offene, softwaredefinierte Lösungen in der Lage sein werden, datenhungrige Unternehmen oder Forschungsprojekte wie die des CERN zu unterstützen.“

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43376138 / Forschung u. Wissenschaft)