Freitag, 19. April 2024

Archiv


Manuskript: Schneller, lauter, heißer

Ohne dass es die meisten Menschen wissen, leben wir im Petascale-Zeitalter. So wie Autos an PS-Zahlen gemessen werden, verraten die digitalen Monster ihre Leistungsfähigkeit mit der Vorsilbe "Peta" für die Zahl 10 hoch 15, was nichts anderes ist als eine Billiarde.

Von Max Schönherr | 06.10.2013
    Die größten Rechenzentren der Welt simulieren das Wetter, Crashtests, Solarstürme mit Supercomputern, die einige Petaflops schnell rechnen können. Konrad Zuses Z1 berechnete 1937 ungefähr eine "Fließkommaoperation" pro Sekunde. Jetzt gehen die großen IT-Forschungszentren langsam auf Exascale zu: 10 hoch 18 Fließkommarechnungen pro Sekunde (Flops). Damit werden Simulationen neuer Art möglich, viel höhere Genauigkeit bei Klimamodellen etwa. Vor allem aber reizt Hirnforscher das neue Supercomputing.

    Von 0 auf 100 in 2,5 Sekunden
    6 Zylinder mit 24 Ventilen, 600 PS bei nur 1,6 Litern Hubraum
    Bremsenergie-Rückgewinnung durch Energy Recovery System Heat ERS-H
    KERS- Highend-Energiemanagement
    35 Prozent Kraftstoffeinsparung gegenüber der 8-Zylinder-Vorgängergeneration


    Moment, Moment, sind wir hier in der falschen Sendung? Das sind doch die Eckdaten der neuen Formel-1-Generation, nicht die der neuen Supercomputer!

    XT5 Jaguar und Titan von Cray
    SGI Pleiades
    Dawning Nebulae, China
    Fujitsu K-Computer, 8162 Petaflops


    Petaflops, das ist Schnee von gestern. Die Zukunft heißt nicht mehr Peta, sondern Exa!

    Exascale, 1000 mal Petascale, 10 hoch 18 Fließpunktoperationen pro Sekunde. Warmwassergekühlt. Finanziert in den USA vom Energieministerium, in Indien erforscht beim Institut der Wissenschaft, in Europa bei CRESTA (Collaborative Research into Exascale Systemware, Tools and Applications), Mont-Blanc und [Dynamical Exascale Entry Platform] DEEP.

    Der europäische Mann ist heute durchschnittlich 11 cm größer als seine Vorfahren vor 100 Jahren. Autos hatten damals vielleicht zehn PS, heute locker 100. Türme baut man nicht mehr 20, sondern 200 Meter hoch, Faktor 10. Aber bei Supercomputern kommen alle paar Jahre gleich drei Größenordnungen hinzu. 2007 konnte man einen Prozessor, der ein Teraflops schnell rechnet, herstellen. Ein Jahr später, im Frühjahr 2008, meldete IBM, mit einem Supercomputer die Hürde von einem Petaflops überschritten zu haben. 1026 mal 10 hoch 15 Gleitkommaoperationen berechnete die Maschine pro Sekunde. Eine Gleitkommazahl ist das Ergebnis einer mathematisch einfachen Rechnung. Konrad Zuses Z1-Rechner von 1937 rechnete pro Sekunde etwa eine Gleitkommazahl aus, war also ein Flops (Floating Point Operation Per Second) schnell. Heute nähern wir uns dem 10 hoch 18-Fachen. Exa. Eine 1 mit 18 Nullen: 1.000.000.000.000.000.000. Die Flops hängen mit der Taktfrequenz eines Computers zusammen, sagen aber über die Leistungsfähigkeit viel mehr aus als die reine Schaltungsgeschwindigkeit, weil sie viele Bereiche der Rechnerarchitektur nutzen. Wir können versuchen, Petascale und Exascale akustisch zu veranschaulichen. Angenommen, diese drei Pieptöne wären drei Rechnungen mit einem herkömmlichen Petaflops-Computer...

    Wenn wir das 100mal schneller machen, schrumpfen diese drei Pieps auf etwas sehr Kurzes zusammen. Wenn man genau hinhört, sind aber die drei Rechnungen noch zu unterscheiden:

    Das war Faktor 100 schneller. Bei Faktor 1000, also Exascale, lässt sich nichts mehr unterscheiden:

    Aber wozu sich überhaupt mit noch mehr, noch schneller beschäftigen? Rechner werden sowieso immer schneller, so war das immer, und dann können wir halt eine Gleichung in einer Minute lösen, die früher paar Minuten länger gebraucht hätte. Falsch! Nicht ein paar Minuten hätte es gedauert, sondern vielleicht 1000 Minuten, oder 100.000 Minuten. 1000 Minuten sind 16 Stunden. Da überlegt man sich schon genau, ob man eine neue Crashsimulation mit einem minimal flacheren Kotflügel noch einmal völlig rechnen will. Vielleicht über Nacht. Vielleicht. 100.000 Minuten Rechenzeit sind indiskutabel, das ist fast ein Viertel Jahr. Bis dahin muss das Auto längst als Prototyp echten Crashszenarien standhalten.

    Diese Sendung beschäftigt sich mit den Problemen, eine 1 Exaflops schnelle Maschine zu bauen. Im Moment weiß zum Beispiel niemand, wie man diese Menge an Schaltkreisen mit Strom versorgen und kühlen kann. Und, mindestens so unsicher: Wie schreibt man Programme für Exascale? Denn einfach hochskalieren, also vom alten Rechner mit 100.000 Rechenkernen auf den neuen mit einer Million Rechenkernen übertragen? Tja…

    "Sie bauen ein Haus. Sie haben vier Wände zu bauen. Sie können natürlich einen Maurer engagieren, der diese Mauern der Reihe nach mauert. Er wird eine Zeit brauchen, ich sage mal vier Stunden. Nehmen Sie vier Maurer, dann können Sie diese Mauern natürlich in einer Stunde bauen. Jetzt gibt es ein paar Probleme hier und da, zum Beispiel an der Kante, wo die Mauern zusammenstoßen, müssen sich die beiden Maurer, die die Mauern bauen, einigen, wer welchen Stein zu welchem Zeitpunkt drauflegt - wir nennen das Synchronisation."

    Ulrich Brüning, Leiter des Lehrstuhls für Rechnerarchitektur am Institut für Technische Informatik der Universität Heidelberg.

    "Was Sie auch noch tun müssen, ist, neue Mauersteine besorgen - Sie holen quasi Sachen aus dem Speicher. Dann kann die Mauer gebaut werden. Das sind also die Schwierigkeiten. Aus dem Grund muss man miteinander reden, jeder Maurer muss genau wissen, wann er den letzten Stein in den Verbund legt und wann er neue Steine heran besorgen muss. Es könnte ja sein, dass ein Maurer nicht ganz so schnell ist wie der andere. Somit hängen Sie am langsamsten Maurer für die Bearbeitung. Jetzt versuchen wir natürlich, diese langsamen Maurer alle schnell, gleich schnell zu machen. Das heißt, unsere Prozessoren und unsere Programmzerteilung wird so sein, dass wir versuchen, sie möglichst gleichförmig zu zerteilen. Und das, was ich jetzt mit vier gemacht habe, machen wir bis 65.000 oder noch mehr, und wir können dann natürlich beschleunigen."

    Schönherr: "Warum 65.000?"

    Brüning: "Ja, 65.000 ist eine ganz einfache Sache, das ist 2 hoch16. Also 65.000 Knoten. Natürlich ist unser System skalierbar. Sie können mit 16 Knoten anfangen, das über 64 Knoten, die ungefähr in einen Schrank passen, weiter skalieren. Und in der Version, die in Jülich demnächst in Betrieb gehen soll, sind diese Knoten auch sehr kompakt aufgebaut, auch von der Kühltechnik her optimiert."

    Estela Suarez: "Es wird wassergekühlt, eigentlich mit warmem Wasser. So betreiben wir das in diesem Projekt. Da fließt das Wasser durch, sodass das Wasser so nah wie möglich an die heißesten Komponenten des Systems herankommt."

    Schönherr: "Kann man im Moment nicht hören, ist aber da."

    Suarez: "Ja, ja, es ist natürlich da. Im Moment kann man es nicht deutlich hören, weil man zusätzlich auch eine Raumklimaanlage hat. Die hört man im Moment."

    Schönherr: "Damit sich die Hörer das vorstellen können: Ich bin jetzt vor einem Prototypen, und um den kann man herumlaufen. Das ist ein Raum, der hat vielleicht 40 Quadratmeter, oder?"

    Suarez: "Ja, ungefähr."

    Schönherr: "Da leuchten viele sehr helle grüne Lichter. Und schon bin ich einmal drumherum gelaufen. Das muss man sich vorstellen mal 100, bis dieses Exascale-Projekt fertig ist. Aber an diesem Prototypen soll halt ausprobiert werden, ob das funktioniert. Da werden die Netzwerkverbindungen, da wird der Booster, der die Rechenoperationen beschleunigt, hier die Kühlung ausprobiert."

    Suarez: "Also, diese Maschine hier soll, wenn sie fertig gebaut ist, ein halbes Petaflops erzeugen, also 500 Teraflops. Das muss man dann zu Exascale hochrechnen. Man bräuchte ungefähr 100 Schränke, so ungefähr."

    Das ist Estela Suarez, geboren und aufgewachsen am Atlantik im äußersten Nordwesten Spaniens, Physikerin. Sie koordiniert einen Teil des Exascale-Vorhaben am Forschungszentrum in Jülich. Es nennt sich "Deep" und ist eines von etwa einem Dutzend Projekten weltweit, das sich der Grenze von 10 hoch 18 Flops nähert.

    Supercomputer sind immer Parallelrechner, eine Platine über der anderen in gut gekühlten Schränken in gut gekühlten Räumen . Die Anlagen sind teuer. Intel stellt die gängigen Chips her, Xeon Phi heißen sie, je nach Ausstattung 1000 bis 4000 Euro teuer. Intel hat, wie IBM ein großes Interesse, in Jülich mitzuarbeiten, liefert dafür Wissen und Material. Beide Firmen betreiben aber gleichzeitig in den USA ihre eigene Exascale-Forschung. Das US-Energieministerium hat etwa 100 Millionen Dollar dafür zur Verfügung gestellt, die indische Regierung ein Vielfaches mehr für das Nationale Wissenschaftsinstitut in Bangalore. Im Nationalen Supercomputing Center Guangzhou, China, wird auch an Exaflops geforscht. Selbst wenn kaum Einzelheiten darüber bekannt sind: Die Chinesen sind ernste Konkurrenten. Sie haben in Guangzhou im Juni 2013 den Weltrekord gebrochen, 33 Petaflops schnell war bis dahin kein Supercomputer. Das magische Jahr für Exa ist 2018. Da soll der Durchbruch erzielt sein. Es ist völlig unklar, wer die 10 hoch 18 Exaflops zuerst meldet; es wird zu einer Erschütterung im Gefüge der Supercomputingwelt führen.

    Für den Jülicher Ansatz namens "Deep" hat die EU acht Millionen Euro zur Verfügung gestellt. Estela Suarez spricht von vielleicht 100 mal so vielen Schränken wie dem, der jetzt da steht, etwa 1500 Einzelplatinen. Warum nicht einfach 100 Schränke hinstellen, das Betriebssystem Linux installieren und den Prozessoren 10 hoch18 Gleitkommarechnungen aufgeben, die dann nach einer Sekunde alle ausgerechnet sind? Dann hätten wir heute schon Exascale. Ulrich Brüning lacht übers ganze Gesicht:

    "Wenn Sie den momentanen Rechnerstand für Exascale verwenden, wird die elektrische Anschlussleistung ungefähr 100 Megawatt sein. Jülich hat 5 Megawatt Anschlussleistung. Damit muss man hinkommen. Die Energieeinsparung, die notwendig ist, ich sage mal innerhalb der nächsten sechs, sieben Jahre, ist immens. Wir müssen also mindestens Faktor 50 an Energie einsparen an den verschiedensten Komponenten."

    Wollte man Exascale heute schon erreichen, müsste man also ein eigenes Kraftwerk betreiben, um den elektrischen Appetit und den Kühlhunger der Anlage zu stillen. Das leistet sich niemand, auch IBM und andere Konkurrenten nicht. Ulrich Brüning trägt übrigens einen wesentlichen Teil zur Energieersparnis bei: Er ließ in seinem Institut die Vernetzungselektronik entwickeln, die in den DEEP-Supercomputer in Jülich eingesetzt werden wird, an jeder Platine eine solche Steckkarte. Sie braucht nicht nur einen Bruchteil der Energie ihrer Vorgänger, sie ist ungefähr zehn Mal schneller. Ihr Energieverbrauch lässt sich verringern, wenn die Elektronik weiß, wie weit entfernt der nächste Rechner oder Datenspeicher liegt. Ulrich Brüning plant, nur noch kurze Strecken bis 1,50 Meter mit elektrischen Kabeln zu führen, alle anderen mit den viel teureren Lichtleitern.

    "Optik ist einer der wesentlichen Schritte, wie wir weiter Energie einsparen können für die elektrischen Verbindungsleitungen."

    Im High Performance Computing (HPC), wie das Hochleistungsrechnen englisch heißt, ist selbst das Laserlicht eigentlich zu langsam. Brüning:

    "Schneller als Lichtgeschwindigkeit geht es mit den Signalen nicht. Damit ist klar: Die Rechner müssen in unserer Welt möglichst dicht zusammengestellt werden. Das ist auch der Grund, warum die Rechner in einem Rechnerraum zusammengestellt werden, und aus dem Grund muss man sie auch effizient kühlen. Es hängt also direkt zusammen, dass man die hohe Geschwindigkeit nur auf kurzen Strecken erreichen und Superrechner nur dann bauen kann, wenn man sie eng zusammenpackt."

    Deswegen kommt für diese Geschwindigkeitsklasse auch kein vernetztes Rechnen übers Internet infrage.

    Fassen wir zusammen: Die Supercomputer von heute rechnen in Petascale-Dimensionen. Der Sprung um den Faktor 1000 auf Exascale befindet sich in diversen Forschungseinrichtungen in der ersten Phase. Die Prozessoren sind zwar schnell, die Vernetzungstechnik ebenfalls, aber einige Tausend Schränke brauchen zu viel Energie. Außerdem ist die Vernetzungsarchitektur auch noch nicht gelöst, also wie man welche Kabel verlegt.

    Bei allen technischen Superlativen, die zu erreichen viel Geld kostet, muss man sich fragen: Wozu der Aufwand? Schließlich fließen acht Millionen Euro unserer Steuergelder in ein EU-Projekt wie Deep. Bei der Formel 1, wo unsere Steuergelder nicht hinfließen, ist die Frage nach dem Sinn des Aufwands leicht zu beantworten: Der Rennsport hat schon immer die Autotechnik zu Extremleistungen gezwungen, die später in normalen PKW Standard wurden und sich dort prima verkauften. Bei Teilchenbeschleunigern - allesamt öffentlich finanziert - ist das nicht so klar. Und bei Supercomputern? Fragen wir eine klassische Hirnforscherin, die eigentlich nichts mit Supercomputern zu tun hatte. Bis jetzt. Katrin Amunts, Leiterin der Arbeitsgruppe "Architektonik und Hirnfunktion" in Jülich.

    "In meinem Bereich hat sich sehr viel getan. Wir haben vor zehn Jahren gut rechnen können mit ganz normalen PCs. Da waren für uns keine großen zeitlichen Beschränkungen mit verbunden, wenn wir zum Beispiel Gehirne transformiert haben. In meinem Bereich war es nicht so wichtig, ob dieses Gehirn in zwei Tagen oder vier Stunden transformiert werden konnte, das ist nicht der große Unterschied. Inzwischen sind die Datenmengen so riesig geworden und die Anforderung an Arbeitsspeicher und Verarbeitungsgeschwindigkeit so immens, dass diese Dinge einfach nicht mehr ausreichend sind, wenn man sie in seinem Institut an seinem kleinen Rechner macht. Und das hat uns vor zwei Jahren immer schneller in Richtung des Höchstleistungs-Computings gebracht und schon auch die Augen geöffnet, für die Möglichkeiten, die da sind. Ich bemerke eben nur an vielen meiner Kollegen, dass die noch der Meinung sind: Da reicht doch, wenn wir ein gutes Cluster im Keller stehen haben, dafür brauchen wir jetzt doch nicht so einen riesigen methodischen Aufwand zu treiben. Und in der Tat ist es so, wenn man mit den neuen Kollegen vom Supercomputing zusammenarbeitet, dass das eine ganz andere Weise des Denkens ist, des Herangehens an Probleme, dass da Begriffe vorkommen, die man vorher noch nie gehört hat. Für mich ist das ein bisschen wie der Vergleich: Das Arbeiten auf PC ist, wie wenn man mit einem normalen kleinen Auto fährt. Und jetzt hat man auf einmal so einen Formel-1-Rennwagen, und man weiß nicht einmal, wo da das Lenkrad ist. Das widerfährt einem Neurowissenschaftler, wenn er das erste Mal mit Supercomputing zu tun hat."

    In einem Nachbargebäude arbeitet einer der Menschen aus der Informatik, an denen sich die Hirnforscher jetzt so gern reiben und von denen sie so viel lernen. Ich lerne, dass sich nun auch Physiker "Hirnforscher" nennen.

    "Ja, ich bin Markus Diesmann, Direktor des Instituts für Neurowissenschaft und Medizin Nr. 6, und ich beschäftige mich mit der mathematischen Modellierung von neuronalen Netzwerken."

    Schönherr: "Und Sie haben Physik studiert und sind kein Hirnforscher?"

    Diesmann: "Ich würde sagen, ich habe Physik studiert und bin ein Hirnforscher. Als Physiker gehen wir an das Gehirn ran, wie wir auch andere Sachen untersucht haben. Das heißt, wir gucken uns die kleinsten Bestandteile an, in diesem Fall können wir uns für die Ebene von Nervenzellen und den Kontaktstellen, den Synapsen, entscheiden. Dann bauen wir mathematische Modelle dieser Einzelteile und stecken die dann wieder zu Netzwerken zusammen, mit den Regeln, die uns die Anatomen sagen, und dann können wir studieren, welche Netzwerkaktivität sich dann ergibt, die sich nicht einfach aus der Einzelneuronendynamik vorhersagen lässt."

    Markus Diesmann hat den aktuell in Jülich arbeitenden Petascale-Supercomputer genutzt, um darauf den Ruhezustand des Gehirns abzubilden. Dabei kam hirnforschungsmäßig nichts Interessantes heraus. Der Versuch diente nur dazu, zu zeigen, dass die Hirnforschung den kompletten Arbeitsspeicher eines Supercomputers überhaupt sinnvoll, und zwar bis in die letzte Ecke hinein, ausfüllen kann.

    "Das hat dazu geführt, dass wir die größte Simulation durchgeführt haben, obwohl sie nur ein Prozent des menschlichen Gehirns darstellt. Aber das ganze macht uns zuversichtlich, dass wir mit der nächsten Generation von Supercomputern, den so genannten Exascale-Computern, dann das ganze Gehirn repräsentieren können."

    Das teuerste Hirnsimulationsprojekt aller Zeiten nennt sich unbescheiden "The Human Brain Project". Von der EU als Leuchtturmprojekt mit einer Milliarde Euro über zehn Jahre gefördert, untersucht der israelisch-schweizerische Neurologe Henry Markram an der ETH Lausanne zusammen mit vielen Kollegen in ganz Europa das Gehirn bis zur Dimension einer einzelnen Zelle hinunter. Wie sich diese Zellen zu stark verästelten Strukturen, den "kortikalen Kolumnen" zusammenfügen und dabei verschalten, ist Markrams Spezialität. Markus Diesmann rechnet viel abstrakter. die räumlichen Zusammenhänge spielen keine Rolle. Er beschreibt jedes Neuron mit drei Differentialgleichungen, sieht sich die grobe Interaktion zwischen ihnen an. Es sind zwei Ansätze, die im Exascale Supercomputing einmal zusammenwachsen werden. Hier wird Neuland betreten. Das Gehirn fremdelt noch mit dem Supercomputer. Ganz anders als das Wetter und das Klima.

    Das Wetter nach der Tagesschau simulieren uns brav seit Jahren Supercomputer beim Deutschen Wetterdienst in Offenbach. Die Klimaforscher, die die Erderwärmung über große Zeiträume berechnen, tun das mit ihren eigenen Programmen in ihren eigenen Rechenzentren. Mit den Exascale-Verlockungen schmelzen nun beide Bereiche zusammen. In Jülich ist dafür ein Simulationslabor für Klimaforschung entstanden. Mitarbeiter sind Cathrin Lehmann und Lars Hoffmann.


    Lehmann: "In diesem Projekt soll ein neues Klimamodell entwickelt werden, das im Gegensatz zu den bisherigen mit einer horizontalen Auflösung von 100 Metern und einer vertikalen Auflösung von 10 bis 50 Metern rechnet."

    Schönherr: "Statt?"

    Lehmann: "Momentan sind die Klimamodelle mit 10 Kilometern horizontaler Auflösung."

    Hoffmann: "Ja, technisch ist es bei dem Modell so, dass wir das Gebiet, das wir betrachten - in dem Fall ist das das Gebiet von Deutschland - mit einem Gitter überziehen. Und für jeden Gitterpunkt macht man dann vertikal eine Säule, die man berechnet. Man hat das ganze Gebiet also sozusagen dreidimensional mit einem Gitter überzogen. Und für jeden einzelnen Gitterpunkt hat man dann die Winde, Druck, Temperatur, die Luftfeuchtigkeit. Und auf diesem Gitter müssen wir eben auch die Wolken darstellen. Wenn man sich das grobe Gitter früher vorstellt, kann man eine Wolke gar nicht richtig auflösen, die fällt dann durch das Raster. Und jetzt mit diesem HDCP2-Projekt ist die Idee, dass man die Wolken wirklich einzeln auflösen kann, auf dem Gitter."

    Selbst hinter der kleinen Regenradar-App auf dem Smartphone, die uns ziemlich genau vorhersagt, ob uns der Regenschauer in 30 Minuten voll trifft oder nur am Rande mit ein paar Tropfen touchiert, steckt High Performance Computing. Denn das Smartphone holt sich die Simulation ja aus einem Rechenzentrum. Das Hochleistungsrechner-Projekt HDCP2, wo die beiden in Jülich tätig sind, soll alle möglichen Wissenschaftsdisziplinen auf Exascale vorbereiten.

    Der kleine Jülicher Prototyp, der einmal zu Exascale wachsen soll, besteht aus zwei Teilen. Einer Ansammlung normaler Hochleistungschips, genannt Cluster, im einen Schrank. Im etwas kleineren Schrank daneben - das gibt es in keinem anderen Supercomputerzentrum - der Booster, der Beschleuniger. Der besteht aus Steckkarten mit Chips, die bestimmte Rechentätigkeiten massiv beschleunigen. Jetzt fragt man sich, was man - wie gehabt - auf dem Cluster rechnen soll, und was auf dem neuen Booster. Deep-Projektmanagerin Estela Suarez hat in Astronomie promoviert und erklärt die Rechnerauslastung am Beispiel zur Simulation von Solarstürmen.

    "Man simuliert die Teilchen, die durch die Sonne beschleunigt werden, und auch die Felder, also die magnetischen Felder der Erde und der Sonne. Und diese zwei Teile haben unterschiedliche Skalierbarkeitseigenschaften. Die eine eignet sich perfekt für den Deep-Cluster, und die andere eignet sich perfekt für den Deep-Booster."

    Schönherr: "Welche?"

    Suarez: "Also die Teilchen sind sehr gut für den Booster geeignet, weil sie sehr viel Rechenkapazität brauchen, also sehr schnell arithmetische Probleme lösen müssen."

    Schönherr: "Jedes Partikel?"

    Suarez: "Genau. Jedes Partikel muss simuliert werden. Die Felder sind für den Cluster besser geeignet, weil sie mehr Speicher brauchen, und auch komplexere Kommunikationsmuster. Auf dem Booster haben wir einen Torus, auf dem Cluster haben wir einen so genannten Fast Tree, der es erlaubt, schneller mit Komponenten weit weg zu kommunizieren."

    Schönherr: "Einen Tree?"

    Suarez: "So einen Baum, genau. Und man muss auch die Bewegung von so einem Teilchen in dem Raum, im Feld, simulieren."

    Schönherr: "Das heißt, der Booster muss mit seinen einzelnen Teilchen immer wieder mal rüber gucken, was der Feldrechner gerade tut?"

    Suarez: "Genau."

    Fassen wir zusammen: Es gibt Anwendungen, die geradezu auf Hochleistungsrechner drängen; keine Maschine kann ihnen groß genug sein. Die Nervenzellen des menschlichen Hirns, die einzelnen Wolken über Deutschland, die Ionen der Sonnenstürme, die die Satelliten und unseren Mobilfunk auf der Erde stören. Die Rechnerarchitekten bieten verschiedene Prozessoren an, die verschiedene Aufgaben unterschiedlich schnell erledigen. Dafür muss die Wissenschaft Probleme neu beschreiben, zerteilen. Automatisch wird das nicht gehen.

    Eine Reihe von Simulationen, die vor 15 und 20 Jahren die damaligen Supercomputer auslastete, spielen bei Exascale keine Rolle mehr. Kein Bedarf. Windkanalsimulationen für Flugzeugflügel und Crashtests für Autos etwa - das rechnet die Industrie heute Inhouse. Daimler etwa rechnet Crashtests auf mehreren tausend Prozessoren, über das weltweite Firmennetz verteilt; das reicht, das ist viel billiger, als sich auf einem Rechenzentrum einzubuchen. Aber es gibt noch einen Aspekt. Ulrich Brüning:

    "Manche Firmen wollen auch nicht, dass der Code, den sie für eine Crash-Simulation geschrieben haben, das Firmengelände verlässt, weil der ja geklaut werden könnte. Man muss ganz klar sehen, dass die Sicherheitsaspekte einen ganz großen Stellenwert darstellen. Auch wenn Sie ans Cloud-Computing denken, wo Sie sich jederzeit irgendwo Rechenleistung mieten können; die Betonung liegt auf 'irgendwo'. Sie wissen gar nicht, wo. Dann ist für Sie die entscheidende Frage, was passiert mit Ihren Daten, die Sie dorthin transportieren und wieder zurück transportieren, und mit den Programmen, die Sie brauchen? Die Sinnhaftigkeit eines eigenen Rechenzentrums ist für einige Anwender gegeben, die werden davon auch nicht so schnell abrücken. Das wird sehr sehr schwierig sein. Wir haben diese NSA-Diskussion. Wenn der Geheimdienst überall reingucken kann, dann frage ich mich natürlich: Wo kann er nicht reingucken? Ganz sicher kann er nicht reingucken, wenn Sie den Stöpsel zum Internet ziehen."

    Schönherr: "Können Sie singen?"

    Suarez: "Eigentlich nicht."

    Schönherr: "Denn die Klimaanlage, die hier die Lüftung macht, gibt einen Ton von sich, danach kann man stimmen. Hmmm - das ist der Ton."

    Suarez: "Okay."

    Schönherr: "Noch nicht gehört? Sie hören nur das Rauschen?"

    Suarez: "Ich habe noch nie daran gedacht, damit Musik zu machen, muss ich sagen."

    Am Anfang war Kilo, Mega, Giga, Tera, Peta. Jetzt Exa. Und nach Exascale? Zetta, Yotta…. Es geht immer weiter. Es endet nie.