Manfred Kloiber: Die Zahlenfresser, die es in Europa gibt, sollen besser koordiniert werden und es sollen vor allem neue Kapazitäten entstehen. Deutsches Mitglied ist das Gauss Centre for Supercomputing (GCS) und dessen Sprecher ist Professor Achim Bachem. Herr Bachem, welchen Sinn macht denn solch ein Konsortium?
Achim Bachem: Wir wissen ja, dass heute die Simulation eines der wichtigsten Werkzeuge der Wissenschaft ist. Und diese Simulation erforderte eine gewaltige Computerleistung im Petaflop-Bereich - also Milliarden von Fließkommaberechnungen in der Sekunde. Diese Geräte sind so teuer, dass man sie sich nicht mehr alleine leisten kann. Hier muss man sich gemeinsam mit Partnern verabreden und zwar europäisch, und das haben wir jetzt, nachdem wir uns ein Jahr zusammengerauft haben in Europa, mit 15 Staaten getan. Wir haben gesagt, wir wollen unabhängig in dieser Schlüsseltechnologie vom Amerika werden, wir wollen in Europa selbst bis zu fünf Zentren anbieten, um für Wissenschaft, Industrie, Wirtschaft die Simulationen in den verschiedensten Gebieten durchzuführen.
Kloiber: Heißt das denn jetzt, durch diesen Zusammenschluss hat man wirklich eine Super-Rechenkapazität neu begründet, die auf dem Weltmarkt der Wissenschaft wirklich Top-Klasse ist?
Bachem: Ja, wir haben in diesem Zusammenschluss das Ziel von fünf so genannten Petaflop-Supercomputer - also Computer, die mindestens 1000 bis 10.000 Mal schneller arbeiten als die schnellsten Computer heute. Das wir natürlich auch neue Investitionen erfordern. Das ist im Rahmen der Strategie für europäische Infrastruktur ein Großgerät von der Größenordnung von etwa 500 Millionen Euro. Da werden die Hauptpartner England, Frankreich, Spanien, Holland und Deutschland im Wesentlichen das Geld beibringen und diese neue Infrastruktur, also nicht eine bestehende, sondern eine neue Infrastruktur schaffen. Eine völlig neue Qualität dabei ist, dass man einen gemeinsamen Zugang zu diesen Großgeräten allen beteiligten Partnern erlauben möchte und nicht mehr der, der zahlt, darf rechnen, sondern der, der das beste Projekt einbringt.
Kloiber: Sie haben es angedeutet, es wird eine neue wissenschaftliche Auswahl geben. Nach welchen Kriterien wird diese Auswahl getroffen?
Bachem: Man wird hier mehrdimensional überprüfen müssen. Sicher will man natürlich jedes Wissenschaftsbranche, beispielsweise die Klimatologie oder die Materialwissenschaft, oder die Astronomie, jede Branche muss ja zum Zuge kommen, sodass man sicher auch Quoten vergeben wird, welcher Wissenschaftsbereich wie viel Rechenzeit erhält. Wenn man das aber einmal festgelegt hat, dann ist es das Ziel dieser gemeinsamen Vereinigung des europäischen Supercomputings, dass dann eben nur noch die besten Anträge aus der Gemeinschaft in der jeweiligen Branche eben Zugang zu diesem Großgerät erhalten soll.
Kloiber: In Sachen Höchstleistungsrechnen war ja in den letzten Jahren das Clustering oder auch das Grid sehr en vogue, also das vernetzte Rechnen. Wird das mit diesem kleinen Netzwerk von sehr leistungsfähigen Computern obsolet?
Bachem: Nein, wir werden beides brauchen. Die Grid-Technologie ist eine völlig andere Computertechnologie als das hier mit Highend-Computing.Was ist der Unterschied? Es gibt eine Reihe von Problemen der Wissenschaft, die man mit diesen Parallelcomputern, also viele Prozessoren werden auf ein Problem angesetzt und lösen es parallel, lösen kann. Allerdings nur dann, wenn diese Prozessoren, die also das Problem parallel angehen, sich laufend austauschen können. Man weiß heute, dass diese schnellsten Computer der Welt in einer ganz hohen Taktrate - eine Nanosekunde ist eine Taktrate - arbeiten. In einer Nanosekunde, und im Wesentlichen sind das ja Licht oder Strom, die die Verbindung zwischen zwei Computern schaffen, schafft das Licht 30 Zentimeter. Wenn man zwei Prozessoren weiter auseinander stellt als 30 Zentimeter, dann verliert man mindestens eine Taktrate. Und wenn man sie 300 Zentimeter oder drei Kilometer oder 100 Kilometer auseinander stellt, dann verliert man 10.000 und mehr Taktraten. Das heißt, immer dann, wenn man ein Problem hat, was nur dann parallel bearbeiten kann, wenn die Prozessoren sich sehr schnell und sehr eng austauschen müssen, macht Grid überhaupt keinen Sinn, dann braucht man diese Highend-Computer. Und immer dann, wenn eine Aufgabe gelöst werden kann, relativ unabhängig und ohne Informationsaustausch zwischen den Prozessoren, dann macht Grid-Technologie Sinn. Beides sind Technologien, die heute für die Wissenschaft wichtig sind.
Achim Bachem: Wir wissen ja, dass heute die Simulation eines der wichtigsten Werkzeuge der Wissenschaft ist. Und diese Simulation erforderte eine gewaltige Computerleistung im Petaflop-Bereich - also Milliarden von Fließkommaberechnungen in der Sekunde. Diese Geräte sind so teuer, dass man sie sich nicht mehr alleine leisten kann. Hier muss man sich gemeinsam mit Partnern verabreden und zwar europäisch, und das haben wir jetzt, nachdem wir uns ein Jahr zusammengerauft haben in Europa, mit 15 Staaten getan. Wir haben gesagt, wir wollen unabhängig in dieser Schlüsseltechnologie vom Amerika werden, wir wollen in Europa selbst bis zu fünf Zentren anbieten, um für Wissenschaft, Industrie, Wirtschaft die Simulationen in den verschiedensten Gebieten durchzuführen.
Kloiber: Heißt das denn jetzt, durch diesen Zusammenschluss hat man wirklich eine Super-Rechenkapazität neu begründet, die auf dem Weltmarkt der Wissenschaft wirklich Top-Klasse ist?
Bachem: Ja, wir haben in diesem Zusammenschluss das Ziel von fünf so genannten Petaflop-Supercomputer - also Computer, die mindestens 1000 bis 10.000 Mal schneller arbeiten als die schnellsten Computer heute. Das wir natürlich auch neue Investitionen erfordern. Das ist im Rahmen der Strategie für europäische Infrastruktur ein Großgerät von der Größenordnung von etwa 500 Millionen Euro. Da werden die Hauptpartner England, Frankreich, Spanien, Holland und Deutschland im Wesentlichen das Geld beibringen und diese neue Infrastruktur, also nicht eine bestehende, sondern eine neue Infrastruktur schaffen. Eine völlig neue Qualität dabei ist, dass man einen gemeinsamen Zugang zu diesen Großgeräten allen beteiligten Partnern erlauben möchte und nicht mehr der, der zahlt, darf rechnen, sondern der, der das beste Projekt einbringt.
Kloiber: Sie haben es angedeutet, es wird eine neue wissenschaftliche Auswahl geben. Nach welchen Kriterien wird diese Auswahl getroffen?
Bachem: Man wird hier mehrdimensional überprüfen müssen. Sicher will man natürlich jedes Wissenschaftsbranche, beispielsweise die Klimatologie oder die Materialwissenschaft, oder die Astronomie, jede Branche muss ja zum Zuge kommen, sodass man sicher auch Quoten vergeben wird, welcher Wissenschaftsbereich wie viel Rechenzeit erhält. Wenn man das aber einmal festgelegt hat, dann ist es das Ziel dieser gemeinsamen Vereinigung des europäischen Supercomputings, dass dann eben nur noch die besten Anträge aus der Gemeinschaft in der jeweiligen Branche eben Zugang zu diesem Großgerät erhalten soll.
Kloiber: In Sachen Höchstleistungsrechnen war ja in den letzten Jahren das Clustering oder auch das Grid sehr en vogue, also das vernetzte Rechnen. Wird das mit diesem kleinen Netzwerk von sehr leistungsfähigen Computern obsolet?
Bachem: Nein, wir werden beides brauchen. Die Grid-Technologie ist eine völlig andere Computertechnologie als das hier mit Highend-Computing.Was ist der Unterschied? Es gibt eine Reihe von Problemen der Wissenschaft, die man mit diesen Parallelcomputern, also viele Prozessoren werden auf ein Problem angesetzt und lösen es parallel, lösen kann. Allerdings nur dann, wenn diese Prozessoren, die also das Problem parallel angehen, sich laufend austauschen können. Man weiß heute, dass diese schnellsten Computer der Welt in einer ganz hohen Taktrate - eine Nanosekunde ist eine Taktrate - arbeiten. In einer Nanosekunde, und im Wesentlichen sind das ja Licht oder Strom, die die Verbindung zwischen zwei Computern schaffen, schafft das Licht 30 Zentimeter. Wenn man zwei Prozessoren weiter auseinander stellt als 30 Zentimeter, dann verliert man mindestens eine Taktrate. Und wenn man sie 300 Zentimeter oder drei Kilometer oder 100 Kilometer auseinander stellt, dann verliert man 10.000 und mehr Taktraten. Das heißt, immer dann, wenn man ein Problem hat, was nur dann parallel bearbeiten kann, wenn die Prozessoren sich sehr schnell und sehr eng austauschen müssen, macht Grid überhaupt keinen Sinn, dann braucht man diese Highend-Computer. Und immer dann, wenn eine Aufgabe gelöst werden kann, relativ unabhängig und ohne Informationsaustausch zwischen den Prozessoren, dann macht Grid-Technologie Sinn. Beides sind Technologien, die heute für die Wissenschaft wichtig sind.