Archiv


Weniger Flops, mehr Leistung

Mit der Internationalen Supercomputerkonferenz wird Dresden kommende Woche wieder zum Mekka der Experten für Zahlenfresser. Star der Veranstaltung dürfte "Roadrunner" sein - der neue Superrechner des Los Alamos National Laboratory.

Manfred Kloiber im Gespräch mit Peter Welchering |
    Manfred Kloiber: "Roadrunner" hat mit einer Billiarde Rechenoperationen pro Sekunde einen neuen Geschwindigkeitsrekord aufgestellt. In Dresden feiert man den Roadrunner auch als Entwicklung aus Deutschland. Wie kommt das zustande, Peter Welchering?

    Peter Welchering: Der Roadrunner besteht aus 7000 Opteron-Prozessoren von AMD und aus 13.000 Cell-Chips. Das ist eine Gemeinschaftsproduktion von IBM und Toshiba. Diese Cell-Chips sind auch das Herzstück der Videospielkonsole Playstation. Und die Integration dieser 13.000 Cell-Chips im Roadrunner-Projekt, so dass daraus in Zusammenarbeit mit den 7000 Opteron-Prozessoren ein Supercomputer werden kann, diese Integration wurde in Böblingen am dortigen Forschungslabor der IBM vorgenommen. Und da ist es natürlich völlig klar, dass die Landespolitiker in Baden-Württemberg mit stolz geschwellter Brust sagen, der Roadrunner sei auch eine schwäbische Entwicklung, weil Böblingen. Und einige Bundespolitiker haben sich schon vernehmen lassen, der Roadrunner sei doch der Beweis für die Innovationskraft in Deutschland.

    Kloiber: Setzen die Petaflops-Rechner wie der Roadrunner jetzt den Standard in der Supercomputerentwicklung?

    Welchering: Der Roadrunner ist gegenwärtig der schnellste Rechner, keine Frage. Aber die Computerwissenschaftler beginnen gerade einzusehen, dass Geschwindigkeit nicht mehr alles ist. Zum einen wird stärker diskutiert, wie denn eigentlich Rechenrasanz gemessen wird. Da gibt es Benchmarks. Die messen, wie schnell bestimmte Rechenaufgaben gelöst werden können. Diese Rechenaufgaben, so lautet die Kritik, haben nicht sehr viel mit dem Alltag bei der Berechnung von Simulationen zu tun. Eigentlich messen sie nur rechentheoretische Werte, keine praxistauglichen. Dann gibt es solche Vergleichsgrößen wie Fließkomaoperationen pro Sekunden. Aber da stellt sich dann die Frage: Welche Prozessoren beziehe ich in diese Rechnung mit ein. Sind das beim Roadrunner nur die Cell-Chips oder auch die Opteron-Prozessoren, die die Server-Dienstleistungen steuern. Die bloße Zahl der Fließkommaoperationen sagt da auch recht wenig über die wirkliche Leistungsfähigkeit eines Supercomputers in der Praxis aus. Wenn ich alle PCs der Uni Karlsruhe zusammen nehme, haben die zum Beispiel mehr Flops als der Höchstleistungsrechner in Stuttgart. Aber das ist eben nur eine theoretische Größe. Wirklich beantworten lässt sich die Frage nach der Leistungsfähigkeit nur, wenn ich mir anschaue, welche Software für welchen Anwendungszweck auf dem Supercomputer implementiert ist. Um das beurteilen zu können, muss ich wissen, wie die einzelne Rechenaufgaben für die Gesamtanwendung mit dieser Software verwaltet und gelöst werden.

    Kloiber: Im Vorfeld der Dresdner Supercomputertagung gab es auch die Parole vom Ende der Supercomputer, weil den Stromfressern die Energie ausgeht. Ist da was dran?

    Welchering: Die National Security Agency musste kürzlich einige Superrechner, mit denen Internet-Knotenrechner abgehört werden, abschalten, Begründung: Strommangel. Da gibt es zwei Probleme: Immer schneller getaktete Prozessoren werden immer heißen, brauchen also bessere Kühlung. Die braucht mehr Energie. Problem Nummer 2: Damit die Prozessoren immer schneller getaktet werden können, werden die Transistoren immer dünner gemacht. Je dünner die Transistorschicht, desto schneller kann der Transistor schalten. Diese dünnen Schichten haben allerdings einen Nachteil. Denn jetzt treten Leckströme auf, Experten nennen das Tunnelströme. Das ist bekannt aus der Quantenmechanik, lässt sich quantenmechanisch auch berechnen. Stört aber beim Design der Mikrochips, denn es sind Ströme, die eigentlich nicht auftreten sollen und zum zweiten gehen sie direkt in den Leistungsverbrauch ein. Und diese Tunnelströme verbrauchen bei großen Supercomputersystemen mittlerweile ein Drittel der gesamten Energie des Systems.

    Kloiber: Hauptspeicher und Kommunikationsnetzwerk machen den Supercomputer aus. So lautete bisher das Credo der Computerwissenschaftler. Auch hier wird von einem Paradigmenwechsel gesprochen. Wie sieht der aus?

    Welchering: Bisher ging es darum, Rechenoperationen auf viele Prozessoren zu verteilen. Die Verteilung passierte je nach Architektur zentral oder die Prozessoren haben sich untereinander abgesprochen. So waren aber permanent bis zu 40 Prozent der Rechenkapazität für die Verwaltung der Rechenoperationen vonnöten. Das soll mit so genannten Multicore-Systemen weniger werde. Multicore-Ssyteme, das sind Prozessoren mit mehreren Prozessorkernen. Da hat man die Idee der parallel arbeitenden Mehrprozessorsysteme vor zehn Jahren aufgenommen. Allerdings hat man jeden Prozessor dabei auf wenige Funktionen zu einem bloßen Prozessorkern schrumpfen lassen, so dass ein Prozessor, dann aus hundert und künftig hunderttausenden, ja sogar bis zu einer Million Prozessorkernen besteht, die parallel rechnen. Und jeder Prozessorkern ist dabei auf bestimmte Rechenbefehle spezialisiert. Dadurch wird viel Rechenkapazität eingespart, aber diese 200.000 Prozessorkerne müssen nun schnell mit den für die Verarbeitung notwendigen Daten versorgt. Und hier sind gute Konzepte noch Mangelware.