Dienstag, 23. April 2024

Archiv

Exascale-Computer
Neue Techniken braucht das Land

Um den Supercomputer der Zukunft zu bauen, den Exascale-Rechner mit einer Trillion Rechenoperationen in der Sekunde, muss sich vieles verändern. Er wird nicht nur neue Prozessoren, Speicher- und Kühlsysteme, sondern noch viele Neuerungen mehr brauchen. Forscher arbeiten bereits daran.

Von Manfred Kloiber und Peter Welchering | 18.07.2015
    Das ist also ziemlich klar: Bis der Exascale-Computer an den Markt kommt, werden noch einige Jahre vergehen. Aber auch ganz unabhängig vom ehrgeizigen Exascale-Ziel muss die Rechnerleistung der Boliden von Jahr zu Jahr steigen. Schon allein, weil die Simulationen zum Beispiel aus dem Fahrzeugbau oder der Meteorologie immer anspruchsvoller werden. Ein erfolgversprechender Ansatz sind dabei individuell auf ein System zugeschnittene Prozessoren.
    Professor Erich Strohmaier vom Laurence Berkeley National Lab in den USA, einer der Autoren der Top-500-Liste, beschreibt das so: "Das ist das Bestreben, dass man Bibliotheken von Komponenten benutzt, um im Baukastensystem Prozessoren zusammenzustecken. Das ist also ein anderes Ingenieurverfahren, wo man die einzelnen Komponenten nicht auf der Transistorenebene entwickelt, sondern aus größeren Bausteinen zusammensetzt. Und da gibt es tatsächlich einige Firmen international, die jetzt neue Prozessoren entwickeln. Diese Prozessoren unterscheiden sich aber eher in den groben Strukturen."
    Aber die Prozessoren in den Rechnerknoten, in den Cores, müssen mit Daten versorgt werden. Und da gibt es noch ein Nadelöhr, Peter Welchering:
    Es entstehen zu lange Wartezeiten, zu lange Latenzzeiten, wenn mit sehr vielen Rechnerknoten gearbeitet wird. Der Tianhe-2 hat zum Beispiel 32.000 Zentraleinheiten und 48.000 Rechnerknoten mit Spezialprozessoren. Wenn da 10 oder 50 Rechnerknoten auf das Rechenergebnis eines Prozesses warten müssen, geht die Rechnerleistung massiv nach unten. Deshalb kommt es darauf an, die Rechnerknoten so mit Daten zu versorgen, dass keine Wartezeiten entstehen. Das Fraunhofer-Institut für Techno- und Wirtschaftsmathematik hat da eine Programmierschnittstelle entwickelt, die dieses Problem löst. Sie heißt Global Space Programming Interface, abgekürzt GPI, und Dr. Franz-Josef Pfreundt erläutert diese Schnittstelle so: "Wenn es zu sehr hohen Core-Anzahlen geht, muss die Kommunikation asynchron erfolgen. Man muss Rechenaufwand und Kommunikation möglichst 100 Prozent überlappen, um die Latenz eigentlich zu Zero zu bekommen. Deshalb haben wir ein Modell entwickelt, das nennt sich GPI, so dass also eine Message komplett asynchron verschickt werden kann. Das bedeutet letztlich, dass wir den Sender und Empfänger zu 100 Prozent entkoppeln und das Programm, das auf dem Empfänger abläuft, im Prinzip unabhängig ist. Es wird nicht gestört, wenn Daten ankommen, es schaut nach und kann gegebenenfalls weiterrechnen oder mit den Daten weiterarbeiten."
    Chips gestapelt und mit Aufzug
    Und manchmal gibt es bei den sogenannten Brückentechnologie Verbesserungen, obwohl sie als ausgereizt gelten. So etwa bei der Warmwasserkühlung. Die spart ein Drittel Energie ein. Und da dachte man, das sei auch schon das Optimum an Einsparung. Es geht aber noch mehr. Das beweist die Chemnitzer Firma Megware. Die verwenden für die Kühlleitungen nämlich Kupfer und nicht Aluminium. Kupfer als Werkstoff ist zwar ein wenig teurer, führt aber zu Einsparungen und hält länger. Thomas Blum von Megware: "Kupfer hat natürlich eine sehr gute Leitfähigkeit. Das ist ein großer Vorteil. Und durch die Kupferionen können wir normales Wasser verwenden – also normales Wasser in Anführungszeichen, wo wir nicht so viel Chemie zusetzen müssen, um halt Bakterien und Pilzbildung zu vermeiden. Also Kupfer ist ja schon mal von Haus aus antibakteriell. Wir haben halt sehr gute Erfahrungen über vier Jahren mit Kupfer, dass wir da relativ wenig Probleme haben mit Bakterien, Pilzen und verschiedenen Ablagerungen."
    Und auch die neuen Massenspeicher, die in die Supercomputer-Center Einzug halten, sorgen für schnelleren Datentransport und damit mehr Rechenrasanz – und so ganz nebenher auch noch dafür, dass weniger Strom verbraucht wird. Thomas Arenz von Samsung: "Das ist wie auf der Autobahn, je breiter die Autobahn ist, desto mehr kann ich im gleichen Zeitraum hin und herschicken und kann das verarbeiten lassen. Und mit Blick auf die Brückentechnologien gibt es verschiedene Ansätze, wo wir das gleiche Prinzip, was wir beim Flash benutzen, da sind wir wieder beim Hochhaus, angesprochen haben haben, das heißt, wir stapeln verschiedene Chips übereinander und bauen für die Elektronen dann die entsprechenden Aufzüge ein und haben noch einen Hausmeister, wenn sie so wollen, einen einzigen Speichercontroller, der mit der CPU spricht. Im Vergleich zu anderen Ansätzen macht das den Prozess zwischen zehn und 15 Prozent schneller spart dabei noch 30 Prozent Energie und kostet nur unwesentlich mehr, wenn man sich das vorstellt."
    Mit solchen Brückentechnologien wollen die Entwickler des Tianhe-2 innerhalb eines Jahres immerhin die 100-Petaflops-Grenze schaffen. 100 Billiarden Rechenoperationen pro Sekunde. Damit wäre eines der Themen der Supercomputer-Konferenz 2016 schon einmal vorgegeben. Ob es dann auch schon erste Prototypen des künftigen Supercomputer-Prozessors aus chinesischer Fertigung geben wird, bleibt aber fraglich.