Archiv

Supercomputer Hawk
Deutschlands schnellster Rechner geht ans Netz

Der Superrechner Hawk besteht aus 11.000 AMD-Prozessoren, ist untergebracht in 44 Rechenzentrumsregalen und schafft 27 Billiarden Rechenoperationen in der Sekunde. Dadurch ergeben sich neue Möglichkeiten bei Simulationen, Datenanalyse und Maschinenlernen - nicht zuletzt für die Automobilindustrie.

Von Peter Welchering |
Stuttgart, 19.02.2020: Mit dem neuen Supercomputer Hawk am Höchstleistungsrechenzentrum Stuttgart HLRS erhält die Universität Stuttgart den schnellsten Rechner Deutschlands.
38 Millionen Euro kostet der neue Supercomputer Hawk - die Kosten teilen sich das Land Baden-Württemberg und der Bund. (www.imago-images.de)
"Die Fragestellungen aus der Automobilindustrie wandeln sich jetzt in gewisser Weise. Elektromobilität hat andere Anforderungen, auch in der Simulation. Das heißt, Hawk wird unter anderem in der Batterie-Entwicklung drin sein, wird aber auch im neuen Thermo-Management, das man für Elektrofahrzeuge braucht, drinnen sein. Und durch die höhere Leistung und das größere Memory können wir dann auch komplexere Systeme simulieren, und es wird dann leichter, diese Auslegung der Fahrzeuge zu simulieren."
So beschreibt Professor Michael Resch, Leiter des Höchstleistungsrechenzentrums in Stuttgart, die großen Hoffnungen, die auch die Automobilindustrie in den neuen Supercomputer setzt. Der ermöglicht nämlich ganz neue Rechenanwendungen. Dabei werden klassische Simulationen, Datenanalyse und maschinelles Lernen miteinander kombiniert.
Lernen aus vorhergehenden Simulationsläufen
"Machine Learning bedeutet, aus vorhergehenden Simulationen zu lernen mithilfe des Benutzers, der sagt: Diese Simulation hat gut funktioniert, die hat schlecht funktioniert. Hier kam das raus, hier kam jenes raus. Und würden dann den nächsten Schritt machen, um zu sagen, die künstliche Intelligenz kann, wenn sie die zurückliegenden Simulationen analysiert, auch zu dem Punkt kommen, dass sie eine Empfehlung abgibt, wie könnte denn so eine Fahrzeug-Konfiguration aussehen, die im Crashtest noch ein bisschen besser ist."
Diese Verbindung von klassischer Simulation, Datenanalyse und Maschinenlernen ermöglicht Anwendungen wie zum Beispiel die Entwicklung eines Modells für eine klimaneutrale Stadt, die konventionellen Supercomputern nicht mehr zugetraut wurden. Für solche Forschungsansätze, so war zum Beispiel auf der letzten Internationalen Supercomputer-Konferenz im Juni 2019 in Frankfurt am Main zu hören, benötige man Quantencomputern und neuromorphe Rechner, die ähnlich rechnen wie das menschliche Gehirn. Und beide Technologien, Quantencomputer wie neuromorphe Computer, stünden vor dem Umzug aus dem Labor ins Rechenzentrum.
Brücke zur kommenden Quantencomputer-Technologie
Michael Resch beobachtet diese Entwicklungen sehr genau:
"Die Problematik wird sein: Wie komme ich von einem stabilen traditionellen Rechnerumfeld auf eine völlig neue Technologie? Und da wird entscheidend sein, welche Technologie in der Lage ist, am besten das abzubilden, was wir heute machen."
Supercomputer wie Hawk bilden da eine Art Anwendungsbrücke zu diesen neuen Rechnertechnologien. Deshalb sind sie für den Technologiestandort Deutschland auch so wichtig. Allerdings fehlen für die Programmierung von Anwendungen mit genau dieser Verbindung von Simulation und "Künstlicher Intelligenz" Entwickler.
Konkurrenzkampf um gute Programmierer
"Das ist ein allgemeiner Trend, den wir auch sehen, gerade hier in Stuttgart ist es ohnehin problematisch. Wir haben einen Daimler, Porsche, Bosch und eine ganze Reihe von sehr starken Mittelständlern. Damit sind wir massiv in Konkurrenz mit der Industrie um diese Menschen. Und dadurch, dass das Thema Simulation in der Zwischenzeit in der Industrie zu 100 Prozent angekommen ist, haben wir natürlich eine Konkurrenz zwischen dem industriellen Teil und dem wissenschaftlichen Teil."
Gute Anwendungsentwickler brauchen eine berufliche Perspektive. Seit an den Universitäten von einer Grundfinanzierung in vielen Bereichen auf Projektförderung umgestellt wurde, sind die befristeten Stellen an den Höchstleistungsrechenzentren für Anwendungsentwickler nicht mehr so interessant. Die Folge: Personalmangel.
Stabile Forschungsförderung wichtig
Für den Informatiker Erich Strohmaier, der am Lawrence Berkeley National Laboratory die Supercomputerentwicklung leitet, ist das die Folge einer verfehlten Forschungs- und Wissenschaftspolitik:
"Langfristig das Wichtige ist eine stabile Forschungsförderung, dass man dann also nicht kurzfristig immer mal wieder einspart und dass dann langfristig die Mittel zurückgehen und die Kultur und der Nachlauf an neuen Forschern; dass das unterbunden wird. Es ist wichtig, dass man so strategisch fördert, dass man an der Stange bleibt und nicht aus kurzfristigen Gründen abschreibt."
Diese Botschaft zumindest hat Rechenzentrumsleiter Michael Resch den Politikern mitgeben können, die sich und den Supercomputer bei der Einweihungsveranstaltung gefeiert haben.