Supercomputer nach dem Baukastenprinzip

Europäische Supercomputing-Zentren schaffen gemeinsam Hardware an

| Autor / Redakteur: Ulrike Ostler / Ulrike Ostler

Projektleiterin Dr. Estela Suarez vom Jülich Supercomputing Centre (JSC)
Projektleiterin Dr. Estela Suarez vom Jülich Supercomputing Centre (JSC) (Bild: Forschungszentrum Jülich / Sascha Kreklau)

Rechenzentren aus vier europäischen Ländern haben sich zusammengeschlossen, um – erstmals auf europäischer Ebene – in einem gemeinsamen Verfahren neue, innovative Superrechner-Systeme zu erwerben. Außerdem geht die Entwicklung eines modularen Superrechner im Projekt „DEEP-EST“ in die nächste Runde.

Eine Reihe europäischer Höchstleistungsrechenzentren geht neue Wege bei der Hardware-Beschaffung: Durch das vom Forschungszentrum Jülich koordinierte „Public Procurement of Innovative Solutions for High-Performance Computing“ (PPI4HPC) sollen künftig mehr Supercomputing-Ressourcen auf europäischer Ebene zu Verfügung stehen. Darüber hinaus beabsichtigen die beteiligten Zentren (BSC, Cineca, JSC, Genci) mittels PPI4HPC ihren Einfluss zu vergrößern, um Hardware-Lösungen in höherem Maße als bisher auf die Anforderungen von Wissenschaftlern und Ingenieuren in Europa anpassen zu können.

Die Rechenzentren werden in dem Prozess neue Höchstleistungsrechner und neue Systeme zur Analyse großer Datenmengen beschaffen. Die Anlagen sollen zwischen 2019 und 2021 an den jeweiligen Standorten installiert werden und decken zusammen ein breites Anwendungsspektrum aus den Bereichen des High-Performance Computing (HPC), des High-Performance Data Analytics (HPDA) bis hin zur Artificial Intelligence (AI) ab.

Insgesamt sind Investitionen in Höhe von 73 Millionen Euro vorgesehen. Die EU fördert den Prozess der sogenannten Innovativen Öffentlichen Beschaffung (PPI) mit einer Förderquote von 35 Prozent.

Die Jülicher planen

Das Forschungszentrum Jülich plant, in dem Verfahren einen neuen Superrechner erwerben, der Ende 2020 am Jülich Supercomputing Centre (JSC) als Ersatz für den Jülicher Superrechner „Jureca“ installiert werden soll. Dazu Professor Thomas Lippert, Leiter des Jülich Supercomputing Centre (JSC): „Wir begrüßen es, dass mit diesem Pilotprojekt die Europäische Kommission dazu beiträgt, eine innovative HPC-Infrastruktur für Europa zu schaffen.“

Wissenschaftler können schon heute über den Verbund „Prace“ auf europäischer Ebene Rechenzeit auf Supercomputern beantragen. Die entsprechenden Rechner wurden bislang allerdings ausschließlich von den Mitgliedsstaaten finanziert.

Mit PPI4HPC geht die EU nun dazu über, die Beschaffung der zugehörigen Rechner zu fördern. Das Verfahren ist damit gleichzeitig Pilotprojekt für die Beschaffung von europäischen Superrechnern der zukünftigen Exascale-Klasse, deren Leistungsfähigkeit die der heutigen schnellsten Rechner um eine Größenordnung übersteigt.

Hinweis: Wer Interesse an PPI4HPC hat, kann sich auf dem Event Open Dialogue Event (ODE)“, der am 6. September 2017 im Renaissance Hotel Brussels stattfindet, informieren. Die Agenda ist bereits online.

Projektleiterin Dr. Estela Suarez vom Jülich Supercomputing Centre (JSC)
Projektleiterin Dr. Estela Suarez vom Jülich Supercomputing Centre (JSC) (Bild: Forschungszentrum Jülich / Sascha Kreklau)

Das Projekt DEEP-EST

Derweil geht das vom Forschungszentrum Jülich koordinierten EU-Projekt „DEEP-Est“ zur Entwicklung eines modularen Superrechners in die nächste Runde. Dieser soll auf die Komplexität von Simulationscodes und das wachsende Aufgabenspektrum von Rechenzentren zugeschnitten sein.

Ins Leben gerufen wurde das Projekt am 1. Juli 2017. Bis 2020 soll ein Prototyp entstehen, der nach dem Baukastenprinzip unterschiedliche Rechenmodule kombiniert.

DEEP-EST folgt auf die erfolgreich abgeschlossenen Projekte DEEP und DEEP-ER und sieht unter anderem ein zusätzliches neues Modul für die Analyse großer Datenmengen vor. Daran beteiligt sind 16 international führende Forschungseinrichtungen und Unternehmen.

Die Herausforderung

Für Smartphones und Notebooks zählt längst nicht mehr nur die reine Rechenleistung. Ebenso wichtig sind Kameras, Netzwerkschnittstellen und GPS. Ein ähnlicher Trend ist auf dem Gebiet des High-Performance Computing (HPC) zu beobachten. Neben rechenintensive Simulationen – das traditionelle Aufgabengebiet wissenschaftlicher Rechenzentren – treten neue Anwendungen wie Big-Data-Analysen und aufwendige Visualisierungen, die sich mit herkömmlichen Superrechner-Architekturen nur ineffizient bewältigen lassen.

„Die Optimierung homogener Systeme ist mehr oder weniger ausgereizt. Wir entwickeln Schritt für Schritt die Voraussetzungen für eine hocheffiziente modulare Superrechner-Architektur, die sich flexibel an unterschiedliche Anforderungen wissenschaftlicher Anwendungen anpasst“, sagt Professor Lippert, Leiter des Jülich Supercomputing Centre (JSC).

Beschleuniger oder Speichermodule werden nach dem Konzept des modularen Superrechners nicht wie bisher über Erweiterungskarten mit einzelnen CPUs kombiniert, sondern zu eigenständigen Modulen zusammengefasst. Deren Einheiten, genannt Knoten, lassen sich je nach Bedarf kombinieren. Am Ende steht ein flexibel anpassbares System, das mittels zukunftsweisender Technologien die Grundlage schaffen soll für so genannte Exascale-Rechner: zukünftige Supercomputer, deren Leistungsfähigkeit die der schnellsten heutigen Supercomputer um eine Größenordnung übersteigt.

Neues Modul für Big Data

Im Projekt Deep-Est neu hinzukommen wird unter anderem ein Data-Analytics-Modul für die Analyse großer Datenmengen, das die Cluster-Booster-Architektur der Vorgängerprojekte DEEP und DEEP-ER noch erweitert.

Mit einer hohen Speicherkapazität und flexibel programmierbaren Prozessoren, so genannten FPGAs, soll das Data-Analytics-Modul eine Lücke schließen, die sich aus unterschiedlichen Hardware-Anforderungen für das High-Performance Computing (HPC) und High-Performance Data Analytics (HPDA) entwickelt hat.

Der Supercomputer „Jureca“ soll ersetzt werden.
Der Supercomputer „Jureca“ soll ersetzt werden. (Bild: Forschungszentrum Jülich)

Projektleiterin Dr. Estela Suárez vom Jülich Supercomputing Centre (JSC), erläutert: „Bei klassischen Supercomputing-Anwendungen wie etwa Simulationen aus der Quantenphysik werden extrem viele Rechenoperationen auf einen relativ kleinen Datensatz angewendet. Das erfordert Systeme mit viel Rechen-Power, aber nur relativ wenig Speicher.

Sie fährt fort: „Wir sehen aber schon jetzt, dass die Anwendungen deutlich komplexer und die Datenmengen von heutigen Experimenten, etwa am CERN, immer größer werden. Das bedeutet: Supercomputer brauchen künftig eine drastisch höhere Speicherkapazität – und zwar so nah wie möglich an den Prozessoren. Nur so lassen sich die Daten schnell und möglichst energieeffizient bearbeiten.“

Anwendungen stehen Pate bei Entwicklung

Insgesamt sechs Anwendungen aus relevanten europäischen Forschungsfeldern werden bei der Entwicklung des Prototypen im Co-Design-Verfahren mit einbezogen. Die Anforderungen der Codes fließen in das Design des Prototypen mit ein. Zugleich profitieren die Codes durch Optimierungen im Zuge des Projekts.

Die Forscher wollen zum Beispiel mit der KU Leuven einen Code adaptieren, mit dem sich simulieren lässt, wie sich gewaltige Sonnenstürme auf die Erde auswirken. Solche Ereignisse sind zwar selten, drohen aber mit gewaltigen Schäden: etwa dem Ausfall der Satellitenkommunikation und gestörten GPS-, Internet- und Telefonverbindungen.

Tests werden zeigen, inwiefern die hochkomplexe Simulation des Weltraumwetters von der modularen Rechner-Architektur profitiert. Verschiedene Teile des komplexen wissenschaftlichen Codes werden hierzu unterschiedlichen Modulen zugeordnet. Für die bestmögliche Verteilung sorgt die Systemsoftwareumgebung, die es ebenfalls im Projekt zu entwickeln gilt. Über ein ausgeklügeltes Ressourcenmanagement soll zudem sichergestellt werden, dass die verschiedenen Komponenten der Architektur zu jedem Zeitpunkt möglichst effizient genutzt werden und somit Energie gespart wird.

Im Fall der Weltraumwetter-Simulation ist etwa die datenintensive Auswertung von hochauflösenden Satellitenbildern insbesondere für die Auslagerung auf das Data-Analytics-Modul prädestiniert. Andere Teile des Simulationscodes, beispielsweise die Wechselwirkung der von der Sonne ausgestrahlten Teilchen mit dem Erdmagnetfeld, werden dagegen auf das Cluster-Modul mit leistungsfähigen General-Purpose-Prozessoren und den Booster aufgeteilt, der auf vernetzten, hochparallelen Mehrkernprozessoren basiert.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44789644 / Forschung u. Wissenschaft)