Archiv


Die Billiarde fest im Blick

Computertechnologie. - Von Dienstag bis gestern haben in Dresden rund 1000 Supercomputerexperten über die neuen Trends im Höchstleistungsrechnen debattiert. Eines ist dabei ganz klar geworden: Die Petaflop-Computer, die derzeit in den Labor entwickelt werden, basieren auf einer völlig anderen Rechnerarchitektur als die heutige Generation. Der Wissenschaftsjournalist Peter Welchering erläutert die neuesten Trends im Gespräch mit Manfred Kloiber.

    Manfred Kloiber: Mit welchen Methoden sollen die Supercomputer denn noch schneller gemacht werden, Peter Welchering?

    Peter Welchering: Die traditionelle, die klassische Methode, die Supercomputerentwickler und -anwender sofort immer haben, die sieht ja einfach vor, die Textfrequenz des Prozessors zu erhöhen. Das wird auch immer noch so gemacht, denn da ist ein ganz einfacher Satz dahinter: Je höher die Taktfrequenz des Prozessors, desto mehr Rechenschritte kann er auch in der Sekunde abarbeiten. Das haben die Ingenieure so realisiert, dass sie einfach die Schichten des Transistors immer dünner gemacht haben. Je dünner nämlich die Transistorschichten sind, desto schneller kann der Transistor schalten. Und je schneller er schalten kann, desto schneller ist der Transistor insgesamt. Aber diese dünnen Schichten haben einen ganz erheblichen Nachteil: Es treten Leckströme auf. Je dünner die Schichten, desto mehr Leckströme treten auf. Und Leckströme haben zwei unangenehme Eigenschaften: Auch wenn der Transistor gar nicht arbeitet, gar nicht schaltet, wird Strom verbraucht, durch diesen Leckstrom eben. Und diese Leckströme verursachen Wärme. Der Prozessor wird zu heiß. Also was die Erhöhung er Taktfrequenzen angeht, da ist so ziemlich alles ausgereizt. Wesentliche Leistungssteigerungen sind auf diese herkömmliche Weise nicht mehr zu erwarten.

    Manfred Kloiber: Kann Hafnium, dieser neue Werkstoff für Transistoren, diese Probleme lösen?

    Peter Welchering: Nur teilweise. Das ist auch auf der Dresdner Supercomputer-Konferenz sehr intensiv diskutiert worden. Da waren so viele Chip-Entwickler da, wie noch nie zuvor. Die Chipentwickler bei IBM und AMD haben mit dem Hafnium ja folgendes gemacht: Das Siliziumoxid am unteren Ende des Steuerelements von Transistoren ist durch einen Werkstoff auf Hafnium-Basis ersetzt worden. Auf Grund der elektrischen Eigenschaften von Hafnium kann schneller geschaltet werden, gleichzeitig können die Transistorschichten wieder etwas dicker gebaut werden, so dass auch die Leckströme reduziert werden können. Was die Erhöhung der Taktfrequenz angeht, bringt Hafnium eine kleine Leistungsreserve. Die reicht überhaupt nicht aus, um etwa die gewünschten zehn Petaflops, das sind zehn Billiarden Rechenoperationen pro Sekunde dann auch wirklich zu erzielen.

    Manfred Kloiber: Als weitere Lösung werden ja sogenannte Multicore-Systeme diskutiert. Wie haben die Supercomputer-Experten in Dresden das bewertet?

    Peter Welchering: Da war sogar eine gewisse Euphorie zu hören. Multicore-Systeme, das sind Prozessoren mit mehreren Prozessorkernen. Da hat man die Idee der parallel arbeitenden Mehrprozessorsysteme vor zehn bis fünfzehn Jahren aufgenommen. Allerdings man hat sie ein bisschen, ja renoviert, restauriert, angepasst, weiterentwickelt. Denn jeder Prozessor ist dabei auf wenige Funktionen zu einem bloßen Prozessorkern geschrumpft worden, so dass ein Prozessor, dann aus hundert und künftig hunderttausenden, ja sogar bis zu einer Million Prozessorkernen bestehen kann, die parallel rechnen. Supercomputerexperte Frank Baetke von Hewlett-Packard hat solch ein Multicoresystem in Dresden so erklärt:

    "Ein Modell, wie man sich das vorstellen kann, ist eine Schwarzwälder Kirschtorte. Die Kerne sind einfach die Prozessoren, und bei den künftigen Maschinen ist jeder so hungrig, dass er nicht mehr nach der Seite hin seine Daten kriegen kann, sondern er wird zum Beispiel von oben, da wo die Sahne ist, seine Daten beziehen. Es wird da Verbindungen sozusagen ins Dreidimensionale geben. Gleichermaßen produziert er natürlich auch Energie, in dem Fall als Wärme. Das heißt, da wo die Tortenplatte ist, oder der Tortenboden, da wird man diese Kerne kühlen, in irgendeiner Form. So muss man sich diese zukünftigen Systeme vorstellen."

    Und so ein Petaflop-Computer nach dem Modell einer Schwarzwälder Kirschtorte stellt natürlich an die Programmierung von Supercomputern ganz neue Anforderungen. Von einem Multicore-System mit vielleicht 200.000 Prozessorkernen werden pro Taktfrequenz 200.000 Programmierbefehle verarbeitet. Dafür brauchen die Supercomputer-Entwickler dann nicht nur ein gutes Parallelisierungskonzept, sondern auch eine ganz pfiffige Lösung, um diese 200.000 Prozessorkerne schnell mit den für die Verarbeitung notwendigen Daten zu versorgen. Wer hier gute Konzepte entwickelt, der wird auch den ersten 10- oder 100-Petaflop-Computer an den Start bringen.