Die International Supercomputing Conference 2003, die vom 24.-27. Juni in Heidelberg läuft, ist das alljährliches Leistungsmessen der Szene. Rechner-Hersteller, Universitäten und Firmen wetteifern mit ihren Supercomputern um die obersten Plätze in den TOP500 der schnellsten Installationen. In Heidelberg wurde die 21. Ausgabe dieser Rangliste vorgestellt. Ein Blick auf die Tabelle offenbart ganz oben keine Überraschung: Der im vergangenen Jahr im japanischen Yokohama in Betrieb gegangene NEC-Rechner zur Erdsimulation liegt mit großem Abstand an erster Stelle. Der erste deutsche Supercomputer findet sich auf Platz 25, im wirklichen Leben steht er in Garching und berechnet für die Max-Planck-Gesellschaft Aufgaben aus der Theoretischen Physik. Insgesamt steht Deutschland in der Nationenwertung vor Japan auf Platz 2 und glänzt mit gutem Mittelwert.
Unter den TOP500 finden sich zwei große Linien, einen Supercomputer zu konstruieren: Einige Rechner sind wie aus einem Guss aufgebaut, andere vernetzen viele vergleichsweise kleine Rechner zu einem leistungsfähigen Ganzen, einem so genannten Cluster. In einem solchen Cluster, also einem "Haufen" von Computern teilen sich die einzelnen Rechner die große Aufgabe, jeder berechnet nur Teilergebnisse. Schon auf Platz 3 der TOP500 findet sich ein solcher Cluster, bei dem als Betriebssystem das freie Linux verwendet wird. Linux bietet hervorragende Voraussetzungen für das Clustern und ist in der Rangliste der Supercomputer stark auf dem Vormarsch. In zwei bis drei Jahren, so schätzen Experten, könnte Linux mit einem Supercomputer auch auf Platz 1 landen.
Linux-Cluster sind vor allem bei parallelen Anwendungen stark, bei denen sehr viele Daten anfallen, die möglichst alle gemeinsam verarbeitet werden müssen und nicht nacheinander. Ulla Thiel, Direktorin Scientific & Technical Computing bei IBM Europa, nennt als Beispiel: "In der Petroleum-Industrie haben sich Linux-Cluster weitestgehend durchgesetzt. Die großen Petroleum-Firmen setzen alle auf Linux-Cluster mit 1024 oder 2048 Knoten. Da beobachten wir auch den Trend, dass es in Richtung 'Supercomputing on demand' geht, dass sie solche Linux-Cluster nicht einmal selber vorhalten wollen, sondern bei einem Hersteller einkaufen." Mit Supercomputing auf Abruf entstehen allerdings ganz neue Probleme: wie beispielsweise kommt die Rechenleistung am besten vom Anbieter zum Kunden?
[Quelle: Peter Welchering]
Unter den TOP500 finden sich zwei große Linien, einen Supercomputer zu konstruieren: Einige Rechner sind wie aus einem Guss aufgebaut, andere vernetzen viele vergleichsweise kleine Rechner zu einem leistungsfähigen Ganzen, einem so genannten Cluster. In einem solchen Cluster, also einem "Haufen" von Computern teilen sich die einzelnen Rechner die große Aufgabe, jeder berechnet nur Teilergebnisse. Schon auf Platz 3 der TOP500 findet sich ein solcher Cluster, bei dem als Betriebssystem das freie Linux verwendet wird. Linux bietet hervorragende Voraussetzungen für das Clustern und ist in der Rangliste der Supercomputer stark auf dem Vormarsch. In zwei bis drei Jahren, so schätzen Experten, könnte Linux mit einem Supercomputer auch auf Platz 1 landen.
Linux-Cluster sind vor allem bei parallelen Anwendungen stark, bei denen sehr viele Daten anfallen, die möglichst alle gemeinsam verarbeitet werden müssen und nicht nacheinander. Ulla Thiel, Direktorin Scientific & Technical Computing bei IBM Europa, nennt als Beispiel: "In der Petroleum-Industrie haben sich Linux-Cluster weitestgehend durchgesetzt. Die großen Petroleum-Firmen setzen alle auf Linux-Cluster mit 1024 oder 2048 Knoten. Da beobachten wir auch den Trend, dass es in Richtung 'Supercomputing on demand' geht, dass sie solche Linux-Cluster nicht einmal selber vorhalten wollen, sondern bei einem Hersteller einkaufen." Mit Supercomputing auf Abruf entstehen allerdings ganz neue Probleme: wie beispielsweise kommt die Rechenleistung am besten vom Anbieter zum Kunden?
[Quelle: Peter Welchering]