Computer und Kommunikation / Archiv /

"Da ist die Schweiz einfach führend"

Dem Supercomputer-Standort Deutschland fehlen politische Entscheidungen

Supercomputer im Forschungszentrum Jülich
Supercomputer im Forschungszentrum Jülich (Forschungszentrum Jülich)

IT.- Der nachhaltige Erfolg eines Supercomputers ist maßgeblich von einer guten Planung des Stromverbrauchs und der Kühlung abhängig. Doch gerade jener Bereich der Energieeffizienz werde von der deutschen Forschungspolitik etwas vernachlässigt, sagt Computerjournalist Peter Welchering im Interview.

Manfred Kloiber: Am Leibniz-Rechenzentrum in Garching setzt man sehr stark auf die Warmwasserkühlung, die nicht nur den Energieverbrauch in Sachen Kühlung senkt, sondern auch kompaktere Supercomputer möglich macht. Welche Vorteile sehen denn die Forscher, Peter Welchering?

Peter Welchering: Die Prozessoren können durch diese Kühlung näher beieinander verbaut werden. Dadurch können Supercomputer so kompakt werden, dass sie in naher Zukunft auf einen Schreibtisch passen und nicht mehr ganze Fußballfelder füllen. Außerdem kann man weniger Kabel legen. Das sorgt für kürzere Signallaufzeiten. Und auch dadurch gibt es dann noch kürzere Rechenzeiten, weil ja die ganzen Rechenergebnisse immer eingesammelt werden müssen – über die Kabel. Und durch effizientere Kühlung kann auch sozusagen im Hyperbetrieb gearbeitet werden. Das nennen die Prozessentwickler "overclocked". Also sie arbeiten quasi mit dem 1,5- bis 1,7-Fachen des normalen Taktes eines Prozessors. Und der rechnet dadurch sehr, sehr schnell.

Kloiber: Und kann dann noch weiter Energie eingespart werden?

Welchering: Ja, vor allen Dingen indem die Taktzeiten der Prozessoren dann dem Bedarf angepasst werden. Das ist ja so ähnlich wie beim Autofahren. Wenn man sehr schnell fährt, braucht man viel Benzin. Wenn man weniger schnell fährt, braucht man weniger. Und so brauchen auch beim Supercomputer höhere Taktzeiten mehr Energie. Und in kleineren Pausen, die schon im Millisekunden-Bereich liegen können, wenn der Prozessor nicht so ganz ausgelastet ist, da können dann die Taktzeiten runtergefahren werden. Das spart enorm Strom. Und deshalb gibt es etwa in Garching auch Prognoseprogramme, die berechnen den notwendigen Prozessortakt und können dann genau die Rechenleistung zur Verfügung stellen, die gerade gebraucht wird. Und das spart erheblich Strom.

Kloiber: Wenn wir schon beim Sparen sind: Gibt es auch noch Einsparmöglichkeiten bei der Hardware?

Welchering: Die liegen vor allen Dingen im Speicherbereich. Da werden ja bisher Dutzende, Hunderte von Festplatten verbaut. Festplatten ziehen sehr viel Strom. Zum einen rechnet man damit, dass die in den nächsten Jahren weniger Strom verbrauchen werden, zum anderen setzt man auch andere Speicherarten. Flash-Speicher, Memristor – also sogenannte Solid-State-Speicher: Speicher, die einmal eine Information ablegen und für das reine Wegspeichern dann eben keinen Strom mehr benötigen. Erst, wenn die Information wieder verändert wird oder wenn sie wieder eingelesen werden muss, muss wieder Strom fließen. Und da erwartet man sich nochmal eine riesige Einsparmöglichkeit.

Kloiber: Mit dem SuperMUC spielt Deutschland ja wieder in der ersten Liga mit. Wie sieht das für die kommenden Entwicklungen in Sachen Exaflop-Computer aus?

Welchering: Die Exaflop-Systeme stehen und fallen mit dem Energieverbrauch. Das heißt, da muss sehr viel mehr getan werden, um Supercomputer noch energieeffizienter zu machen. Und da ist die Schweiz einfach führend – mit ihren beiden Eidgenössischen Hochschulen. Die USA und Japan ziehen sehr stark durch. Da gibt es einige Forschungsprogramme, die in den vergangenen Jahren aufgesetzt wurden. Deutschland hätte da mit dem Gauß-Verbund, mit den Super-Rechenzentren von Garching, Jülich und Stuttgart gute Chancen. Aber bisher widmet eben die Forschungspolitik vor allen Dingen auf Bundesebene diesem Thema energieeffiziente Supercomputer nicht so viel Aufmerksamkeit, wie das eigentlich üblich und möglich und nötig wäre.

Kloiber: Was sagen die Supercomputer-Experten dazu? Gibt es Forderungen an die Politik?

Welchering: Die hat Professor Hans Meuer ganz klar formuliert, der Initiator der Top-500-Liste der schnellsten Computer der Welt. Der empfiehlt, dass man sich an den beiden Eidgenössischen Technischen Hochschulen Zürich und Lausanne orientieren solle, Garching als Modell ausbauen sollte. Und zwar sollte man vor allen Dingen die Betriebskosten und damit den Stromverbrauch von vornherein einrechnen in das Gesamtmodell. Denn dann wird es natürlich auch für die Rechenzentren attraktiv, Strom zu sparen. Weil sie nicht mehr die Beschaffungskosten separat haben von den Betriebskosten und die Betriebskosten dann in irgendwelchen ganz anderen Büchern auftauchen. Also da brauchen wir auch sozusagen ein anderes Buchhaltungsmodell der wissenschaftlichen Rechenzentren und Höchstleistungsrechenzentren in der Bundesrepublik.

Beitrag hören

 
 
Dradio Audio
Kein Audio aktiv
 
 
 
 
 

Computer und Kommunikation

Das Digitale Logbuch DotZuLang

Das Symbol "Neue E-Mail-Nachricht" wird auf einem Computer Monitor angezeigt. 

Keine Zustellung wegen eines Buchstabens, der zuviel erscheint. Das würde es bei der als "snail mail" verlachten Post nicht geben - in der digitalen Email-Welt gibt es das schon: Vor allem amerikanische Mailserver lehnen Mails, die auf .info enden, ab. Welch zickige Server!

DatenschutzSieben Schurken und ein Guter

Ein Kind sitzt vor einem Fernseher

Seit 14 Jahren verleiht der Verein "digitalcourage" den Big-Brother-Award, einen Negativpreis für besonders schlechten Umgang mit persönlichen Daten. In diesem Jahr konnten die Organisatoren endlich einmal eine Ehrung für vorbildliches Verhalten vergeben, neben sieben Auszeichnungen für Verfehlungen.

Heartbleed-Sicherheitslücke"Überprüfungsmechanismen reichen nicht aus"

Ein automatisches Lager für Magnet-Datenbänder (Tape-Bibliothek) arbeitet in einem Nebenraum des Supercomputers "Blizzard" im Deutschen Klimarechenzentrum in Hamburg. 

Vom sogenannten Heartbleed-Bug, einem Fehler in der Open-Source-Verschlüsselungssoftware Open SSL, sind Millionen Internetnutzer betroffen. Die Sicherheitslücke hat gezeigt, dass die Kontrolle in der Open-Source-Community verbessert werden muss, meint DLF-Redakteur Peter Welchering.