Der kleinste Rechner, den das US-Unternehmen Orion Multisystems anbietet, hat die Ausmaße eines flachen Desktop-PCs. Allerdings takten in ihm gleich zwölf Intel-Prozessoren. Im großen Modell sind 96. Die bringen es dann auf eine Leistung von 300 Milliarden Gleitkomma-Berechnungen pro Sekunde. Derartiges fällt üblicher Weise in die Kategorie Supercomputer. Der Unternehmensgründer Colin Hunter nennt solche Zahlenfresser allerdings lieber "Workstations des 21. Jahrhunderts":
"Es geht um den Markt für Workstations, aber fit gemacht für das 21. Jahrhundert. "
Also es sind vorwiegend Techniker und Multimedia-Entwickler, die Orion beliefern will. Möglich geworden ist die Supercomputer-Rechenleistung auf kleinstem Raum durch die Bemühungen der Halbleiter-Industrie, den Stromverbrauch der Chips zu reduzieren und damit auch die Wärme, die beim Betrieb entsteht. Eigens dafür entwickelt worden ist eine Variante von IBMs Power-Prozessoren, die in Blue Gene, dem mächtigsten Zahlenfresser der Welt, arbeitet. Nigel Beck, der Vorsitzende von "Power.org", der Vermarktungsorganisation für IBM-Prozessoren:
"Blue Gene verwendet unsere schwächsten Prozessoren. Sie sind nicht auf Rechenleistung, sondern auf niedrigen Stromverbrauch hin ausgelegt und für die Kommunikation mit anderen Bausteinen optimiert worden."
Und nicht nur in Blue Gene stecken diese Chips, sondern auch – 64 an der Zahl – in einem Arbeitsplatzrechner, den der Konzern seit kurzem anbietet. Eine andere Power-Version ist der Cell-Chip für die nächste Generation von Sonys Playstation. Damit baut Mercury Computer Systems äußerst dicht bepackte Supercomputer. Frank Soltis, der Chefentwickler von IBMs Mittelstand-Servern AS/400 erläutert, warum sich die Prozessoren für die Spielekonsole auch für professionelle Hochleistungsrechner eignen:
"Das ist gerade der Grund, weshalb er "Cell"-Prozessor heißt, weil man viele miteinander verbinden kann, um größere Einheiten zu bilden. Die Idee dabei ist, dass man einen oder zwei "Cell"-Chips im Einstiegsmodell hat und Tausende im Vollausbau. Denn es gibt keine Begrenzung wie bei herkömmlichen Rechnern, die sich den Arbeitspeicher teilen. Da ist es sehr schwer, mehr als 64 Prozessoren zu kombinieren. Der "Cell"-Chip hingegen ist entwickelt worden, um Abertausende davon zu verbinden."
Ausnutzen allerdings lässt sich die Rechenleistung von Personal Supercomputern nur, wenn auch die Software für Workstations parallelisiert wird, wenn also das implementiert wird, was der Informatiker gemeinhin als "Nebenläufigkeit" bezeichnet. Noch einmal Colin Hunter:
"Das grundsätzliche Problem besteht darin, dass der Programmierer die Software in Module zerlegen muss, die unabhängig von einander ablaufen. Egal, ob das auf einer einzelnen Mehrprozessormaschine geschieht oder innerhalb eines Rechnerverbunds. Der Programmierer darf nicht mehr sequentiell denken. Er muss vielmehr die Software in parallele Arbeitsstränge zergliedern."
Das ist die Voraussetzung dafür, dass die Rechner, die jetzt technisch möglich sind, auch einen Markt finden. Gründe dafür, einen derartigen ganz persönlichen Zahlenfresser anzuschaffen, gäbe es allerdings genug, ist Colin Hunter überzeugt:
"Technikern ist sehr an eigenen Rechner-Ressourcen gelegen. Sie arbeiten auch schon mal zu unüblichen Zeiten, kommen in die Firma und von der EDV-Abteilung ist noch niemand da. Die Leute, die dort arbeiten, wiederum mögen oft die Techniker nicht so sehr, weil die häufig die ganze IT zum Absturz bringen. Wenn sie beispielsweise Software entwickeln, dann lassen sie fehlerhafte Programme laufen. Von daher tendieren EDV-Abteilungen schon dazu, einem Techniker seinen eigenen privaten Sandkasten zu geben. Und Techniker schätzen es, einen eigenen Rechner zu haben, aus einer Vielzahl praktischer Gründe und auch aus vielen psychologischen."
"Es geht um den Markt für Workstations, aber fit gemacht für das 21. Jahrhundert. "
Also es sind vorwiegend Techniker und Multimedia-Entwickler, die Orion beliefern will. Möglich geworden ist die Supercomputer-Rechenleistung auf kleinstem Raum durch die Bemühungen der Halbleiter-Industrie, den Stromverbrauch der Chips zu reduzieren und damit auch die Wärme, die beim Betrieb entsteht. Eigens dafür entwickelt worden ist eine Variante von IBMs Power-Prozessoren, die in Blue Gene, dem mächtigsten Zahlenfresser der Welt, arbeitet. Nigel Beck, der Vorsitzende von "Power.org", der Vermarktungsorganisation für IBM-Prozessoren:
"Blue Gene verwendet unsere schwächsten Prozessoren. Sie sind nicht auf Rechenleistung, sondern auf niedrigen Stromverbrauch hin ausgelegt und für die Kommunikation mit anderen Bausteinen optimiert worden."
Und nicht nur in Blue Gene stecken diese Chips, sondern auch – 64 an der Zahl – in einem Arbeitsplatzrechner, den der Konzern seit kurzem anbietet. Eine andere Power-Version ist der Cell-Chip für die nächste Generation von Sonys Playstation. Damit baut Mercury Computer Systems äußerst dicht bepackte Supercomputer. Frank Soltis, der Chefentwickler von IBMs Mittelstand-Servern AS/400 erläutert, warum sich die Prozessoren für die Spielekonsole auch für professionelle Hochleistungsrechner eignen:
"Das ist gerade der Grund, weshalb er "Cell"-Prozessor heißt, weil man viele miteinander verbinden kann, um größere Einheiten zu bilden. Die Idee dabei ist, dass man einen oder zwei "Cell"-Chips im Einstiegsmodell hat und Tausende im Vollausbau. Denn es gibt keine Begrenzung wie bei herkömmlichen Rechnern, die sich den Arbeitspeicher teilen. Da ist es sehr schwer, mehr als 64 Prozessoren zu kombinieren. Der "Cell"-Chip hingegen ist entwickelt worden, um Abertausende davon zu verbinden."
Ausnutzen allerdings lässt sich die Rechenleistung von Personal Supercomputern nur, wenn auch die Software für Workstations parallelisiert wird, wenn also das implementiert wird, was der Informatiker gemeinhin als "Nebenläufigkeit" bezeichnet. Noch einmal Colin Hunter:
"Das grundsätzliche Problem besteht darin, dass der Programmierer die Software in Module zerlegen muss, die unabhängig von einander ablaufen. Egal, ob das auf einer einzelnen Mehrprozessormaschine geschieht oder innerhalb eines Rechnerverbunds. Der Programmierer darf nicht mehr sequentiell denken. Er muss vielmehr die Software in parallele Arbeitsstränge zergliedern."
Das ist die Voraussetzung dafür, dass die Rechner, die jetzt technisch möglich sind, auch einen Markt finden. Gründe dafür, einen derartigen ganz persönlichen Zahlenfresser anzuschaffen, gäbe es allerdings genug, ist Colin Hunter überzeugt:
"Technikern ist sehr an eigenen Rechner-Ressourcen gelegen. Sie arbeiten auch schon mal zu unüblichen Zeiten, kommen in die Firma und von der EDV-Abteilung ist noch niemand da. Die Leute, die dort arbeiten, wiederum mögen oft die Techniker nicht so sehr, weil die häufig die ganze IT zum Absturz bringen. Wenn sie beispielsweise Software entwickeln, dann lassen sie fehlerhafte Programme laufen. Von daher tendieren EDV-Abteilungen schon dazu, einem Techniker seinen eigenen privaten Sandkasten zu geben. Und Techniker schätzen es, einen eigenen Rechner zu haben, aus einer Vielzahl praktischer Gründe und auch aus vielen psychologischen."