Freitag, 19. April 2024

Archiv

Rechenleistung
Deutsche Supercomputer schwächeln

Auf der Liste der 500 schnellsten Computer der Welt stehen nur noch 14 deutsche Höchstleistungsrechner. Ein Grund: Die deutsche Forschungspolitik konzentriert sich auf Künstliche Intelligenz und maschinelles Lernen und vernachlässigt die Entwicklung bei anderen mathematischen Verfahren.

Peter Welchering im Gespräch mit Manfred Kloiber | 22.06.2019
Eine Mitarbeiterin steht vor einem Rechnerschrank und schaut auf Leuchtdioden der Prozessoren des Supercomputers "Mistral" im Deutschen Klimazentrum in Hamburg
Mit dem Supercomputer "Mistral" im Deutschen Klimarechenzentrum Hamburg werden modellbasierte Simulationen des globalen Klimawandels und seiner regionalen Effekte untersucht (picture alliance/dpa/Felix König)
Manfred Kloiber: Die Top-500-Liste der schnellsten Computer der Welt wurde zu Beginn der Woche auf der Supercomputerkonferenz in Frankfurt am Main vorgestellt. Erich Strohmaier, einer der Initiatoren der Liste, resümierte:
"In dieser Ausgabe der Top 500 war die Umwälzung aufgrund der ansteigenden Leistung unterdurchschnittlich. Das ist nicht notwendigerweise ein Zeichen der Besorgnis. Es kann also durchaus ein Zeichen eines ganz normalen Technologie-Zyklus sein."
Wie wurden denn die durchaus bedenklichen Zahlen der Top-500-Liste von den 4.000 Teilnehmern auf dieser wichtigsten Konferenz im Bereich des Höchstleistungsrechnens aufgenommen, Peter Welchering?
Top 500 Supercomputer
Die schnellsten Rechner der Welt
Der König der Supercomputer steht am Oak Ridge National Laboratory im US-Bundesstaat Tennessee: Der "Summit" führt die Liste der schnellsten Rechner der Welt an, die auf der Supercomputer-Konferenz in Frankfurt vorgestellt wurde. Der deutsche Rechner "Supermuc NG" schaffte es immerhin auf Platz neun.
Peter Welchering: Zu einen als Zeichen eines klar anstehenden Paradigmenwechsels. Moores Law wird im Bereich des Höchstleistungsrechnens nicht mehr lange gelten. Also die Annahme, dass sich die Zahl der Transistoren integrierter Schatzkreise regelmäßig innerhalb von 12 bis 24 Monaten verdoppeln wird. Insgesamt war diese diesjährige Supercomputerkonferenz eine sehr nachdenkliche Konferenz. Der Hype um das maschinelle Lernen wurde kritisiert. Ethische Fragen beim Einsatz von Systemen Künstlicher Intelligenz, für deren Entwicklung das Höchstleistungsrechnen von ganz entscheidender Bedeutung ist, bestimmten einen Großteil der Debatten.
Und methodische Fragen, die in der gegenwärtig etwas überhitzten Diskussion über Künstliche Intelligenz stark beiseitegeschoben werden, die wurden auch sehr intensiv besprochen. Und wo in allen diesen Diskussion die Forschungspolitik eingreifen soll, sich mit ihren Programmen ansiedeln soll, das war auch Thema. Die Computerwissenschaftler beklagen, dass die Forschungspolitik zu wenig auf den Rat der Wissenschaftler hört, auch in Deutschland. In den USA ist das Verhältnis zwischen Regierung und Wissenschaft einfach nur zerrüttet.
Gefahren für den Supercomputer-Standort Deutschland
Kloiber: Bundesforschungsministerin Anja Karliczek kam nicht zur Supercomputerkonferenz - dabei hätten Forschungspolitiker und Computerwissenschaftler so viel zu besprechen. Der Supercomputerstandort Deutschland drohe zurückzufallen, so war ja im Vorfeld der Frankfurter Supercomputer-Konferenz immer wieder zu hören. Wie ist das denn von den Computerwissenschaftlern diskutiert worden?
Welchering: Die Zahlen der Top-500-Liste sind da eindeutig. Vor einem halben Jahr hatte Deutschland noch 17 Systeme in der Liste, jetzt noch 14. Vor einem halben Jahr lag die Gesamtreichenleistung der in der Liste vertretenen deutschen Rechner bei mehr als 60 Petaflops, jetzt ist sie unter die magische Marke von 60 Petaflops gesunken. Auf der anderen Seite wird zum Beispiel gerade am Rechenzentrum in Stuttgart mit dem "Hawk" ein neuer Höchstleistungsrechner gebaut, der die reinen Listenzahlen wieder nach oben pushen dürfte.
Es gibt aber eine andere Gefahr für den Supercomputerstandort Deutschland, die haben Erich Strohmaier und Jack Dongarra ja auch schon ganz vorsichtig angedeutet: In der deutschen Forschungspolitik dreht sich zurzeit fast alles um Themen der Künstlichen Intelligenz, und hier sehr stark um maschinelles Lernen und diese Einseitigkeit gefährdet den Supercomputerstandort hierzulande.
Forschungsministerin Anja Karliczek (CDU) bei der Eröffnung des Wissenschaftsjahres 2019 in Berlin mit dem Schwerpunkt Künstliche Intelligenz
Forschungsministerin Anja Karliczek (CDU) bei der Eröffnung des Wissenschaftsjahres 2019 mit dem Schwerpunkt Künstliche Intelligenz (picture alliance/dpa/Ralf Hirschberger)
Kloiber: Wo liegt die Gefahr genau?
Welchering: Das sind gleich mehrere Gefahren: Die guten alten numerischen Verfahren werden vernachlässigt. Die sind aber für die Ausbildung von Entwicklern für Supercomputer-Anwendungen genauso wichtig wie für neue Prototypen von KI-Anwendungen, die auf Supercomputern entwickelt und dann als "embedded system" eingesetzt werden. Zweitens: Die Vernachlässigung der mathematischen Modellbildung. Ohne Modellbildung kann es keine Fortschritte in der Algorithmenentwicklung geben. Doch in der Algorithmenentwicklung leben die Forscher zurzeit von der Substanz. Die Rechenzentren hierzulande waren da immer führend, auch in Sachen KI. Dass jetzt die von der Kanzlerin auch in dieser Woche geäußerte Parole auftaucht, bei den selbstlernenden Systemen hänge Deutschland hinterher, zeigt den einseitigen Blick der Politik aufs Thema.
Die meisten Ansätze für selbstlernende Systeme sind von Rechenzentren hierzulande ausgegangen. Da gab es Riesenfortschritte bei den neuronalen Netzen, starke Entwicklungen bei generativen Netzwerken. Damit die weiterentwickelt werden können, braucht es verfeinerte Modelle, etwa bei Grenzwerten. Was zurzeit gemacht wird, ist reine Wahrscheinlichkeitsrechnung, die auch noch vielfach auf veralteten Modellen aufsetzte. Das wird zu einem Entwicklungsabbruch führen, wenn nicht gegengesteuert wird.
Ethische Bedenken selbst in China
Kloiber: Aber in China sind ja ganz gute Erfolge damit erzielt worden.
Welchering: Ja, was das "Social Scoring" und Prognosesysteme anging. Bei der Entwicklung des Supercomputers Tianhe-3, der sich massiv verspätet, haben wir es genau mit solchen Defiziten in der Modellbildung zu tun. Und bei den erfolgreichen Anwendungen im "Social Scoring", da tauchten inzwischen selbst in China ethische Bedenken auf. Die äußern sich leise, nur in geschützten Räumen. Aber zum Beispiel haben die Supercomputerexperten in Frankfurt mit großem Interesse die Pekinger KI-Prinzipien gelesen, die von der Pekinger Akademie für Künstliche Intelligenz veröffentlicht wurden.
Dass diese Dokumente aus China kommen und dass dort die Diskussion über Privatsphäre und die Autonomie des Subjekts, über menschliche Würde und Freiheit, an denen sich nicht nur KI-Anwendungen, sondern auch alle Supercomputerentwicklungen orientieren müssen, das zeigt, dass die Wissenschaftlergemeinde weltweit intensiv über die ethische Fundierung ihres Tuns nachdenkt.
Chinesische Wissenschaftler vor dem Prototypen des Supercomputers Tanhe-3 im Nationalen Supercomputer-Zentrum in Tianjin im Norden Chinas
Chinesische Wissenschaftler vor dem Prototypen des Supercomputers Tanhe-3 im Nationalen Supercomputer-Zentrum in Tianjin im Norden Chinas (Imago/Xinhua)
Kloiber: Wird sich das auf solche Programme wie das "Social Scoring" in China auswirken?
Welchering: Nur sehr, sehr langfristig. Gegenwärtig haben wir da die Situation, dass über die Pekinger KI-Prinzipien offen nur in äußerst geschützten Räumen gesprochen wird. Der Druck der chinesischen Regierung auf die Wissenschaftler ist groß. Gleichzeitig muss man aber auch sehen, dass die weitere technologische und damit auch wirtschaftliche Entwicklung Chinas von der Loyalität genau dieser Computerwissenschaftler abhängt. Die erarbeiten sich also gerade eine Position, von der aus die Diskussion über ethische Leitlinie erst möglich wird.