Freitag, 29. März 2024

Archiv

Rechenleistung
Achillesferse Supercomputer

In Frankfurt haben 4000 Teilnehmer über Supercomputer diskutiert. Die klare Botschaft der Computerwissenschaftler an die Politik: Ohne eine wettbewerbsfähige Position im Supercomputing kann eine moderne Volkswirtschaft nicht bestehen.

Von Peter Welchering | 30.06.2018
    Lange Reihen von Lichtern laufen in der Mitte des Bildes zusammen. Es zeigt ein automatisches Lager für Magnet-Datenbänder in einem Nebenraum des Supercomputers "Blizzard" im Deutschen Klimarechenzentrum in Hamburg
    Lange Reihen von Lichtern laufen in der Mitte des Bildes zusammen. Es zeigt ein automatisches Lager für Magnet-Datenbänder in einem Nebenraum des Supercomputers "Blizzard" im Deutschen Klimarechenzentrum in Hamburg. (dpa picture alliance / Christian Charisius)
    Auch wenn sehr viel Symbolik dahintersteckt: Die Spitzenplätze auf der Top-500-Liste der schnellsten Computer der Welt bedeuten Regierungen, Unternehmen und Forschungspolitikern sehr viel. Mehr als zwei Milliarden US-Dollar hat zum Beispiel die amerikanische Regierung in die Entwicklung von drei Höchstleistungsrechnern gesteckt, um nach sechs Jahren endlich wieder an der Spitze im Supercomputing zu sein. Der Sieger heißt "Summit" und stößt das Tor zum Exascale-Computing weit auf, zu Supercomputern also, die mehr als eine Trillion Rechenoperationen in der Sekunde schaffen. Supercomputer-Veteran Jack Dongarra von der Universität Tennessee.
    Europa stark zurückgefallen
    "Das ist ein Computer mit einer Spitzenleistung von 200 Petaflops. Das ist ein Fünftel einer Exascale-Maschine. Der nächste Computer, der ihn ersetzen wird, das wird eine Exascale-Maschine sein. Das ist also ein Schritt vor Exascale."
    1,5 Trillionen Rechenoperationen schaffte "Summit" bei der Ausführung von KI-Programmen. Anwendungen maschinellen Lernens lassen sich nämlich wesentlich schneller berechnen als klassische Ingenieursaufgaben. KI-Software arbeitet einfach wesentlich unpräziser als eine Finite-Elemente-Berechnung. Erich Strohmaier vom Lawrence Berkeley National Laboratory erklärt das so.
    "Die modernen Architekturen, die wir auf diesen NVidia-Grafikprozessoren betreiben, die erlauben es einem, deutlich schneller zu rechnen, wenn man mit verkürzten Zahlen, mit verringerter Genauigkeit rechnet, wenn man also zu einem Viertel der wissenschaftlichen Genauigkeit geht, dann erreicht man eine Performance, die um den Faktor 16 größer ist als bei den wissenschaftlichen Anwendungen. Und das erlaubt es diesen Maschinen-Lernen-Anwendungen über einen Exaflops zu erreichen. Traditionelle Wettervorhersage oder Engineering läuft nach wie vor nur im Petaflop-Bereich. Exaflop gibt’s bisher nur für Maschinenlernen mit reduzierter Genauigkeit."
    Schwer vermittelbares Thema
    Doch auch an Exaflop für das maschinelle Lernen ist in Europa vorerst nicht zu denken. Ziemlich zurückgefallen ist die europäische Supercomputerentwicklung. Die Forschungspolitiker in Brüssel und Berlin haben sich da zu wenig gekümmert in letzter Zeit. Und das hat Gründe, meint Michael Resch, Leiter des Höchstleistungsrechenzentrums in Stuttgart.
    "Das hat eher mit so einer allgemeinen politischen Sache zu tun. Wenn Sie jetzt als Politiker irgendwo ein Großgerät einweihen, dann sind die Medien da. Wenn Sie als Politiker versuchen, den Leuten zu erklären, warum Sie Monte-Carlo-Simulationen koppeln müssen mit CFD-Simulationen, dann wird Ihnen kaum jemand zuhören. Das ist allgemein so ein bisschen das Problem."
    Aber das Problem sei erkannt. Die Computerwissenschaftler machen gegenwärtig viel Druck, vor allen Dingen in Brüssel. Michael Resch.
    "Wir sind da in der Diskussion mit der Europäischen Kommission. Es wird sehr viel kommuniziert natürlich über Hardware. Das hat die größere Sichtbarkeit sozusagen: Lasst uns eine europäische IT-Industrie haben, lasst uns ein europäisches Exaflops haben. Das ist natürlich erst mal leichter verständlich und einfacher zu kommunizieren. Aber wir sind in intensiven Diskussionen mit der Europäischen Kommission. Es werden im Laufe der nächsten Wochen auch Fördermaßnahmen bekannt gegeben für sogenannte Centers of Excellence, in denen es dann auch um die Anwendungen geht."
    Ohne Supercomputing keine moderne Volkswirtschaft
    Seine Prognose sieht denn auch ganz optimistisch aus.
    "Die großen Systeme kommen rein, stehen irgendwo in den Top 10 und fallen dann immer weiter runter. Und dann kommt man wieder mit einem neuen System. Das heißt, der typische Zyklus für einen Supercomputer ist: Ich gehe rein, dann bin ich Nr.7, dann falle ich irgendwann runter, bis ich irgendwann bei 30, 40 bin. Dann kommt ein neues System, das steigt irgendwo bei den Top 10 ein. Und in Deutschland ist es so, dass wir jetzt 2017 ein bisschen eine Lücke gehabt haben. Das hat was mit Förderung zu tun, aber auch mit Technologiewandel, den wir gerade gesehen haben. Und deswegen wer wir dann im November wieder in den Top 10 sein und nächstes Jahr sind wir vielleicht sogar größenordnungsmäßig Top 5, vielleicht Platz 6 oder so."
    Die klare Botschaft der Computerwissenschaftler an die Politik lautet denn auch: Ohne eine wettbewerbsfähige Position im Supercomputing kann eine moderne Volkswirtschaft nicht bestehen. Darüber soll man im Berliner Forschungsministerium erschrocken sein – ebenso wie im Wirtschaftsministerium. Aber dieser Schreck könnte heilsam sein.