Wo High Performance-Computer wirken, ist es spannend

Rechnen - und Kühlen - auf höchstem Niveau

| Autor / Redakteur: Michael Matzer / Ulrike Ostler

Mithilfe von High Performance Computing (HPC) lassen sich neue Welten erschließen - man kann in Mikro- und akrokosmen schauen, neue Materialien erfinden, Zusammenhänge erkennen, wo bisland Chaos herrscht ....
Mithilfe von High Performance Computing (HPC) lassen sich neue Welten erschließen - man kann in Mikro- und akrokosmen schauen, neue Materialien erfinden, Zusammenhänge erkennen, wo bisland Chaos herrscht .... (Bild: © adam121 - stock.adobe.com)

Hochleistungsrechner finden bereits auf zahlreichen Gebieten Einsatz, so etwa in der Materialforschung, der Visualisierung, der Wettervorhersage und in Simulationen. Mit Exascale-Systemen und Quantencomputern sollen aber noch weitere und vor allem leistungsfähigere Anwendungen möglich sein.

High Performance Computing ist nach Ansicht von Klaus Gottschalk, einem HPC-Architekten bei IBM, bereits synonym mit High Performance Data Analytics (HPDA). Nach Ansicht von Earl Joseph und Steve Conway, Analysten bei Hyperion Research, wachsen nämlich zwei große Felder rasch zusammen: Modellierung & Simulation einerseits und Advanced Analytics andererseits.

Klaus Gottschalk ist IBMs HPC-Experte.
Klaus Gottschalk ist IBMs HPC-Experte. (Bild: IBM)

Auf den Einsatzgebieten von Advanced Analytics betätigen sich Finanzdienstleister, die Betrug verhindern wollen, aber auch Geheimdienstler, Biologen, Marketiers und Chemiker. Die Geheimdienstler suchen nach Terroristen, bevor diese zuschlagen können, und durchsuchen dazu komplexe Netze von Beziehungen.

Marketiers betreiben Affinity Marketiers und nutzen Recommendation Engines, Qualitätssicherer etwa im Fahrzeugbau nutzen Predictive Maintenance. Biologen und Chemiker testen und untersuchen immer komplexere Molekülverbindungen, um diese zu Wirkstoffen zu verarbeiten.

Zwei Einsatzbereiche wachsen laut Hyperion Research zu HPDA zusammen, nämlich Advanced Analytics und Modellierung & Simulation.
Zwei Einsatzbereiche wachsen laut Hyperion Research zu HPDA zusammen, nämlich Advanced Analytics und Modellierung & Simulation. (Bild: Hyperion Research 2017)

Modellierung und Simulation

Diese vertrauten Anwendungsgebiete wachsen nach Hyperion-Angaben zunehmend mit Modellierung und Simulation zusammen. Hier spielen die iterativen Durchläufe von Modellen eine zentrale Rolle. Es gibt parametrische Modellierung im Produkt-Design, stochastische Modellierung im Finanzwesen und Ensemble-Modellierung, etwa bei der Berechnung von Wetterphänomenen und Klimafolgen.

Wenn simuliert und modelliert werden muss, gewinnen die Modelle aus dem Deep Learning an Bedeutung. „Diese Modelle zu trainieren ist sehr datenintensiv“, sagt Klaus Gottschalk, „und erfordert jede Möglichkeit der Beschleunigung, die es gibt.“ Dazu gehört etwa der Einsatz von GPUs und FPGAs als Akzeleratoren, die wie ein Co-Prozessor fungieren. „Optimal konfiguriert, braucht so ein Power-9-System nur ein Drittel der Zeit, die ein x86-System mit PCIe-Bus braucht.“

Bessere Wettervorhersagen

Wetterfrösche können mittlerweile ihre alten Wettervorhersagemodelle durch Zusammenführung mit mehr Datenquellen und Nutzung von Machine Learning auf eine neue Grundlage stellen. „So lassen sich etwa Stürme besser verfolgen“, sagt der IBM-Manager. Big Blue wolle Wetter-Services wieder in den Fokus stellen und kooperiert mit dem Schweizer und dem Deutschen Wetterdienst (DVD). Zusammen will die Allianz und anderen die Wahrscheinlichkeit eines Unwetters vorhersagen; dafür muss beispielsweise Ensemble-Modellierung genutzt werden.

Im Smart oder Cognitive Computing sieht Gottschalk ebenfalls einen wichtigen Einsatzbereich. Pharmafirmen suchen nach Wirkstoffen und nutzen dabei die 3D-Fotografie am DESY mit seinem Synchrotron. Diese hochauflösenden Fotos helfen ihnen, die räumliche Struktur eines Moleküls zu klassifizieren, was bis zu 80 Prozent an Aufwand spart, so dass sich der Nutzer auf das restliche Fünftel der Arbeit konzentrieren kann.

Der HPC-Server-Markt im Juni 2017. Auf Supercomputer entfällt mehr als ein Drittel der Investitionen.
Der HPC-Server-Markt im Juni 2017. Auf Supercomputer entfällt mehr als ein Drittel der Investitionen. (Bild: Hyperion Research)

Stromnetzsteuerung

Auch Stromnetzsteuerung (Electric Power Grid Control) ist nach Ansicht Gottschalks eine HPC-Anwendung. Der dänische Windkraftanlagenbetreiber und -hersteller Vestas und seine Dienstleister müssen laufend die erzeugte Stromleistung überwachen, damit es zu keiner Überlastung ihrer Anlagen oder des Leitungsnetzes kommt.

Vestas bietet Vorhersagen über den Stromertrag einer Windkraftanlage über die Produktionszeit als Service an. Im Zuge von Edge Computing „verfolgt das Unternehmen den Weg einer größeren Windbö über das ganze Netz hinweg“, berichtet Gottschalk. "Sie berechnen die Leistung, die erzielt werden kann, aber auch die möglichen Schäden an den Rotoren."

eBook „Edge Computing“

Edge Computing Weiterführende Information im eBook von DataCenter-Insider zum Edge-Computing. Angesprochen werden Nutzungsszenarien für das Edge-Computing-Modell als auch über Mikro-Rechenzentren und was sie leisten. Ebenfalls angesprochen werden Themen wie Vernetzung, Interoperabilität und Cyber-Sicherheit.  (PDF | ET 22.02.2017)

eBook herunterladen »

Denn im Fall einer Wartung muss dafür gesorgt werden, dass der Leistungsausfall ausgeglichen wird. Auch ein Supercomputer wie etwa der SuperMUC am Leibniz-Rechenzentrum in München kann weder auf einen Schlag hochgefahren noch unvermittelt abgeschaltet werden: Die durchschnittlich 3 Megawatt Energiebedarf, die der SuperMUC benötigt, müssen auf jeden Fall gesteuert werden, sonst kann es zu schweren Störungen bzw. Beschädigungen der Systeme kommen, nicht nur im Rechenzentrum, sondern auch im Kraftwerk.

Containerized HPC

Nach Ansicht von Klaus Gottschalk sind Software-Container im HPC heute nicht mehr wegzudenken. „Es ist ein echter Painpoint der User, dass sie für jede Anwendung eine andere Umgebung brauchen und dass sich diese Umgebungen oft nicht miteinander vertragen.“ Wenn der Entwickler also seine kompilierten Micro-Services und Libraries in einen Container packen kann, lässt sich dieser Container mit angepasstem Inhalt auf die jeweils benötigte Betriebssystem-Umgebung verschieben.

Für dieses Vorgehen gibt es nach Gottschalks Angaben zwei weitere Gründe. Erstens wird durch Container wieder Bedarf an Virtualisierung und entsprechenden Servern wie Red Hat oder Suse geweckt. Das alte Vorurteil, dass Virtualisierung 10 Prozent der Leistung koste, sei schon längst passé. Weitaus wichtiger ist die Anforderung der Rechenzentrumsbetreiber nach höchster Sicherheit für ihre Superrechner.

Noch spielt die Cloud eine geringe Rolle im HPC.
Noch spielt die Cloud eine geringe Rolle im HPC. (Bild: Hyperion Research)

Vielfach werden bereits Rechenjobs in die Cloud ausgelagert, wie Hyperion Research ((Bild)) herausfand, und bei der Cloud-Nutzung tun sich Security-Löcher auf. „Neulich wurde entdeckt, dass ein gehackter Supercomputer für das Bitcoin Mining missbraucht wurde“, berichtet der IBM-Experte. „Die optimale Security-Lösung wären gesicherte Container, wie sie etwa Docker- und Kubernetes bereitstellen.“

In China, Japan, USA und der EU gibt es sehr unterschiedliche Programme, um Exascale-Systeme zu entwickeln.
In China, Japan, USA und der EU gibt es sehr unterschiedliche Programme, um Exascale-Systeme zu entwickeln. (Bild: Hyperion Research)

Exascale-Systeme

In der Chemie kann man heute erst bis zu 15 Atome in ihrem Bindungsverhalten simulieren, sonst wird der Rechenaufwand zu ihrer Modellierung zu groß. Exascale-Superrechner, die es vielleicht ab 2020 in USA und China geben könnte, sollen diese Grenze verschieben. Auch in der Astrophysik gibt es noch enge Grenzen:

„Man kann bislang nur eine zweistellige Anzahl von Sternen simulieren“, berichtet Gottschalk, also gerade mal unser Sonnensystem und ein paar Exoplaneten mit ihren Sonnen. Bei der Asteroidenbeobachtung zu Warnzwecken steht man noch am Anfang. In der Biologie sieht es nicht viel besser aus: „Man kann inzwischen zwar eine organische Zelle simulieren, aber von einem ganzen Organismus träumen wir derzeit nur.“ Für Systeme, die Trillionen Rechenoperationen pro Sekunde bewältigen (Exaflop/s), gäbe es also noch sehr viele wertvolle Einsatzgebiete.

Quanten-Computer

Viele IT-Beobachter fragen sich, was Quantencomputer beitragen können. Quantenphysik an sich ist ja nichts Neues, denn sie findet bereits in Lasern, Flash Memory und MRI-Scannern Anwendung. Quantenrechner hingegen müssen in einem Kryostaten fast bis auf den absoluten Nullpunkt (-273°C = 0°K) abgekühlt werden, um für Berechnungen verwendet werden zu können, bei denen gleichzeitig zwei Werte gelten können.

D-Wave und IBM haben Quantenrechner vorgestellt, die im Einsatz sind, Intel und Microsoft forschen etwa am QuTech-Institut der der Universität Delft daran.

Big Blue will diese „Q-Server“ für den kommerziellen Einsatz fit machen. Der Chip-Hersteller steht mittlerweile mit einer Rechenkapazität seiner zwei Q-Chips von 16 beziehungsweise 17 Qubits recht gut da.

Nach 300.000 Quanten-Experimenten kündigt sich IBM Q an, IBM entwickelt seine bis dato leistungsstärksten Quantenprozessoren

Das Ziel sind mindestens 50 Qubits, denn ab diesem Punkt, der so genannten „Quantum-Überlegenheit“, ist der Quantenrechner wahrscheinlich schneller als ein Computer mit klassischer Von-Neumann-Architektur: 50 Qubits liefern 10 hoch 15 (1 Billiarde) gleichzeitige Zustände.

Neuesten Meldungen zufolge ist die Simulation von 40 bzw. 45 Qubits sowohl am ETH in Zürich als auch auf dem CORI-System am NERSC in Berkeley, Kalifornien, bereits gelungen. Ein kleiner Kryostat verbraucht nach Angaben von IBMs Quantenfachmann Albert Frisch rund 20 Kilowattstunden, was wesentlich weniger ist als etwa beim SuperMUC.

Auf der IBM-Webseite „IBM Quantumexperience“ kann der Nutzer im Composer seine Einstellungen vornehmen, um ein Experiment zu starten. Man achte auf die Kühltemperatur von unter 0,02 Kelvin und auf das typische Schlangenlinienmuster eines Q-Chips links unten.
Auf der IBM-Webseite „IBM Quantumexperience“ kann der Nutzer im Composer seine Einstellungen vornehmen, um ein Experiment zu starten. Man achte auf die Kühltemperatur von unter 0,02 Kelvin und auf das typische Schlangenlinienmuster eines Q-Chips links unten. (Bild: IBM/ Michael Matzer)

Diese „supercoolen“ Rechner sollen Anwendungen die Simulation von Molekülen und Wirkstoffen erheblich beschleunigen, aber auch Deep Learning, Finanzdienste, Materialforschung und Tomografie. Den Q-Effekt kann jeder bereits in der 5-Qubit-Simulation von IBM bewundern.

Big Blue stellt Entwicklern auf „Bluemix“ bereits eine Python-API und ein SDK zur Verfügung. 40.000 Nutzer an über 150 Instituten haben bereits über 300.000 Experimente absolviert - Quantenrechner sind also keine Zukunftsmusik, sondern weltweit in Verwendung. Wer sich Sorgen um geknackte Kodierungsschlüssel macht, dem entgegnet Albert Frisch, dass dann eben längere symmetrische Schlüssel entwickelt werden müssen.

* Michael Matzer ist freier Autor und lebt in Stuttgart. Diesen Beitrag haben wir von unserem Schwesterportal DataCenter-Insider übernommen.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44907009 / RZ-Hardware)