Angesichts der Leistungsfähigkeit von handelsüblichen Personal Computern mag man sich die Frage stellen, ob Supercomputer nicht ein Relikt der Vergangenheit sind. Dem ist keineswegs so, wie man in Baltimore erneut sehen kann. Dort präsentiert auch die Firma Cray, ein zwischenzeitlich arg gebeutelter Veteran unter den Supercomputer-Herstellern, sein neues Modell Cray X1, das mit 50 Teraflops, also 50 Billionen Rechenoperationen pro Sekunde, den wohl schnellsten aller Großrechner darstellt. Bislang gibt es allerdings noch keine unabhängigen Tests der neuen Cray-Maschine. Damit bleibt die Krone zurzeit noch beim japanischen Hersteller NEC, der seit dem Frühjahr einen Supercomputer mit 36 Teraflops für Wetterprognosen in Betrieb hat.
Ein Trend in der jüngeren Vergangenheit waren die so genannten Cluster, bei denen viele Standardrechner miteinander vernetzt werden und so ihre Rechenkraft bündeln. Dieses Konzept wird nun erweitert zum so genannten Grid-Computing, bei dem sich gleich ganze Rechenzentren miteinander über das Internetprotokoll vernetzen. Experten sagen dem Grid-Computing eine große Zukunft voraus, denn in den großen Rechenzentren, etwa beim Deutschen Wetterdienst in Darmstadt, sind durchaus noch Rechenkapazitäten frei, die man vermieten könnte. Die Uni Hohenheim beispielsweise fährt damit recht erfolgreich und lässt Autohersteller Materialberechnungen in ihrem Rechenzentrum durchführen.
Traditionell nutzen vor allem Mathematiker oder Physiker Supercomputer für ihre Forschung, doch vermehrt greifen inzwischen auch Wissenschaftler aus anderen Fachbereichen auf deren Dienste zurück. Rita R. Colwell, Leiterin der National Science Foundation, begrüßte diese Entwicklung in ihrer SC2002-Keynote: "Eine Cyber-Infrastruktur gibt uns Wissenschaftlern die Grundlage, rasante Fortschritte in allen Wissenschaften zu machen, selbst in jenen, wo es um die Komplexität des menschlichen Lebens geht." Deutschland selbst hat zwar nicht mehr die schnellsten Rechner in den Forschungseinrichtungen stehen, ist aber das europäische Land mit der höchsten Supercomputerdichte überhaupt. Das nächste Treffen der Supercomputerleute wird denn auch in Heidelberg stattfinden.
[Quelle: Maximilian Schönherr]
Ein Trend in der jüngeren Vergangenheit waren die so genannten Cluster, bei denen viele Standardrechner miteinander vernetzt werden und so ihre Rechenkraft bündeln. Dieses Konzept wird nun erweitert zum so genannten Grid-Computing, bei dem sich gleich ganze Rechenzentren miteinander über das Internetprotokoll vernetzen. Experten sagen dem Grid-Computing eine große Zukunft voraus, denn in den großen Rechenzentren, etwa beim Deutschen Wetterdienst in Darmstadt, sind durchaus noch Rechenkapazitäten frei, die man vermieten könnte. Die Uni Hohenheim beispielsweise fährt damit recht erfolgreich und lässt Autohersteller Materialberechnungen in ihrem Rechenzentrum durchführen.
Traditionell nutzen vor allem Mathematiker oder Physiker Supercomputer für ihre Forschung, doch vermehrt greifen inzwischen auch Wissenschaftler aus anderen Fachbereichen auf deren Dienste zurück. Rita R. Colwell, Leiterin der National Science Foundation, begrüßte diese Entwicklung in ihrer SC2002-Keynote: "Eine Cyber-Infrastruktur gibt uns Wissenschaftlern die Grundlage, rasante Fortschritte in allen Wissenschaften zu machen, selbst in jenen, wo es um die Komplexität des menschlichen Lebens geht." Deutschland selbst hat zwar nicht mehr die schnellsten Rechner in den Forschungseinrichtungen stehen, ist aber das europäische Land mit der höchsten Supercomputerdichte überhaupt. Das nächste Treffen der Supercomputerleute wird denn auch in Heidelberg stattfinden.
[Quelle: Maximilian Schönherr]