Archiv


Digitale Orakel für schnellere Computer

Während die Prozessoren in immer neue Hochgeschwindigkeitsbereiche vorstoßen, arbeiten Speicher und andere Computerkomponenten vergleichsweise langsam vor sich hin. Weil die resultierende Leistungslücke stetig wächst und den Geschwindigkeitsvorteil moderner Prozessoren durch lange Wartepausen wieder auffrisst, bildete das Thema der Rechner-Architektur einen Schwerpunkt auf der Informatik-Konferenz "Schloß Dagstuhl", die am vergangenen Donnerstag zu Ende ging.

Klaus Herbst, Reinhard Wilhelm |
    "Weil die Geschwindigkeit von CPU einerseits und Arbeitsspeicher andererseits immer weiter auseinander klafft, muss der Prozessor immer häufiger untätig auf seine Daten warten", konstatiert Professor Reinhard Wilhelm, wissenschaftlicher Direktor des Internationalen Begegnungs- und Forschungszentrums für Informatik von der Universität des Saarlandes. Abhilfe sieht der Experte in so genannten Spekulationen: Kann der Arbeitsspeicher Daten etwa nicht schnell genug an die CPU liefern, versuchen Informatiker sich in Vorhersagen über diese Informationen. Allerdings birgt dieses Verfahren den Nachteil des Irrtums. Gelingt dagegen die korrekte Prognose der Daten, verhilft die Methode zu einer höheren Gesamtleistung des Systems. "Eine neue Spielart dieses Vorgehens ist die so genannte Abhängigkeitsspekulation. So muss ein Prozessor bestimmte Instruktionen eines Programms unbedingt nacheinander ausführen, weil nachfolgende Funktionen auf die Berechnungen der vorhergehenden angewiesen sind – Solche Befehl können nicht spekulativ vorverarbeitet werden", erklärt Wilhelm. Die Hardware müsse die bestehenden Zusammenhänge zwischen Befehlen herausfinden und dürfe nur unabhängige Anweisungen zum Zweck der Beschleunigung spekulativ umordnen.

    Ebenso neuartig ist das so genannte "Speculative Multithreading": Bei weiter fortschreitender Miniaturisierung einerseits, aber zunehmenden Chip-Dimensionen andererseits, verursachen Kabellängen erhebliche Zeit-Kosten. Um jedoch die vorgegebenen Zeitkonten nicht zu überziehen, organisieren Prozessor-Entwickler im Chip kleine, flexibel konfigurierbare Nachbarschaften. Professor Wilhelm verdeutlicht dies am Beispiel einer Großstadt: "Weil immer mehr Einwohner immer längere Staus verursachen würden, wenn sie einen einzigen, zentralen Supermarkt ansteuern, bildet man Subzentren, die einzelne Regionen separat versorgen." So würden zukünftig gleich mehrere Prozessoren auf einem einzigen Chip untergebracht und die anfallenden Lasten parallel schneller abarbeiten.

    Am Bedarf solcher leistungssteigender Maßnahmen haben die Saarbrücker Wissenschaftler - trotz schneller Rechner jenseits der Gigahertz-Grenze - keine Zweifel: Noch schnellere System böten neue virtuelle Welten von hohem Detailgrad für anspruchsvolle Anwendungen, wie etwa aus Medizin oder Physik. Doch auch noch komfortablere Bedienoberflächen für Endanwender, etwa mit intuitiver Sprachsteuerung ausgestattet, verlangten nach zusätzlicher Rechenleistung.