Archiv


Linux als Kraftprotz

Ein anderes Geschehen warf ebenfalls seine langen Schatten bis nach Karlsruhe auf den LinuxTag. Denn im nahen Heidelberg wurde in der vergangenen Woche die aktuelle Liste der schnellsten Supercomputer weltweit verkündet. Das hier vorherrschende Betriebssystem ist: Linux.

    Bis Freitag fand in Heidelberg die Internationale Supercomputer Konferenz 2005 statt. Ein Blick auf die Rangliste der 500 schnellsten Computer der Welt genügt, um zu verdeutlichen, welches Betriebssystem hier das Sagen hat: ohne Linux geht in der Welt der Höchstleistungsmaschinen kaum etwas mehr. So arbeitet auch der neue Spitzenreiter, ein "Blue Gene"-Computer von IBM bei dem Ministerium für Kernsicherheit in den USA, mit dem alternativen Betriebssystem. Entsprechend nutzten zahlreiche Experten denn auch die Gelegenheit für einen Abstecher nach Karlsruhe, um sich über die neuesten Trends rund um Linux und Open-Source-Software zu informieren. Dazu gehört auch Professor Michael Resch vom High Performance Computing Center in Stuttgart:

    "Wir als Zentrum bedienen vor allem wissenschaftliche Benutzer sowie Klienten aus der Industrie. Und Linux hat die schöne Eigenschaft, dass es auf allen Systemen - vom kleinen bis zum größten Rechner sowie bei schnellen wie auch bei langsamen Systemen - eingesetzt werden kann. Für den Wissenschaftler bedeutet das, dass er auf seinem Schreibtisch arbeiten und anschließend seine Fragestellungen direkt auf unsere Rechner-Cluster schieben kann. Die Industrie kann andererseits Kosten sparen, weil keine Übersetzungskosten von einem Betriebssystem auf ein anderes entstehen. Das sind die wesentlichen Gründe, die die Entwicklung der Supercomputer auch voran treiben."

    Während vor Jahren noch maßgeschneiderte, aber auch immer teurere Spezialkonstruktionen - also quasi individuell zugeschnittene Einzelrechner - die Liste der schnellsten Computer anführten, stellt sich das Bild bei den Hochleistungsrechnern von heute ganz anders dar.

    Eine Frage des Geldes

    Denn in so genannten Clustern können nahezu beliebig viele kleine Computer, verlgeichbar mit dem heimischen Spiel- und Schreibknecht, miteinander gekoppelt werden. Gemeinsam allerdings erzielen sie enorme Rechenkraft und halten dabei die Kosten für ein solches System in überschaubaren Grenzen. Außerdem kann die Zahl der benötigten Computer dabei nachträglich leicht angepasst werden. Möglich machte dies ebenfalls erst Linux. Doch bislang schaffte es noch kein Linux-Cluster bis ganz an die Spitze der Rechenweltmeister.

    "Das ist auch eine Frage des Geldes. Wenn wir uns die Liste der Top 500 anschauen, dann stehen ganz vorne Systeme, die in Großprojekten gebaut und finanziert wurden. Um es einfach auszudrücken: Wenn jemand heute 100 Millionen Euro in die Hand nehmen kann und damit einen PC-Cluster aufstellt, dann wird dieses System die Nummer Eins auf der Rangliste sein. Das werden wir vielleicht im nächsten Jahr sehen. Man wird sehen, was die großen Labors in den USA und die großen Hersteller in Japan machen werden."

    Knappheit an Mitteln scheint bei IBM indes kein Problem zu sein, konnte sich doch Big Blue's "Blue Gene"-Rechner souverän gegen den Vorjahressieger, den japanischen Earth Simulator, durchsetzen. Doch auch in Blue Gene schlägt ein freies Softwareherz aus Linux.

    "Betriebssysteme betreiben einen hohen Aufwand bei der Nutzung ihres Hauptspeicherplatzes und belegen selbst viel Speicher. Wissenschaftler versuchen aber, möglichst große Probleme zu lösen und möchten entsprechend viel Hauptspeicher im System erhalten. Deswegen zerlegt man das Betriebssystem weiter und sagt, die Kernfunktionen werden in ein neues Modul ausgelagert. Das ist dann das Kernbetriebssystem, das auf einem Prozessor läuft. Gegenüber dem Benutzer gibt es dann noch ein Betriebssystem, dass nicht auf jedem Prozessor verfügbar ist, das sozusagen mit dem Benutzer spricht. Das ist beispielsweise im Internet so. Der Anwender spricht mit einem Browser-Programm, das wiederum mit verschiedenen Protokollen kommuniziert. Diese Zerlegung führt dazu, dass es dem Benutzer zum einen leichter fällt, sich mit der Technologie auseinander zu setzen. Zum anderen können wir die Leistung erhöhen und Hardwarekosten an dieser Stelle reduzieren."

    Peta-FLOPS am Horizont

    Neben der Diskussion aktueller Entwicklungen warf die Supercomputer Konferenz auch einen Blick auf die Zukunft. So dräuen am Horizont bereits Systeme mit Leistungen im Peta-Flops-Bereich - also Billiarden Fließkommastellen-Berechnungen. Dazu Resch:

    "Linux wird bei diesem Projekt sowie bei anderen Ansätzen, die in den USA laufen beziehungsweise in Planung stehen, eine herausragende Rolle spiele. Es ist eigentlich unvorstellbar, dass wir in schätzungsweise fünf Jahren noch viele Systeme in diesem Bereich haben werden, die nicht mit Linux arbeiten. Die große Schwierigkeit wird darin liegen, dass wir nach wie vor im Supercomputing mit Spezialarchitekturen arbeiten. Es wird sich die Frage stellen, ob man Linux auf diese Konzepte übertragen kann."

    [Quelle: Peter Welchering]