Archiv


Geschäft am Draht

In jedem Jahr treffen sich Technologieanalysten aus allen europäischen Ländern, um aktuelle Trends in der der Informationstechnik zu diskutieren. Mitte vergangener Woche tagten mehrere hundert Analysten und Journalisten am Münchner Flughafen und interessierten sich dabei vor allem für eine wichtige Entwicklung: das so genannte adaptive Computing. Hinter dem Begriff verbirgt sich quasi unerschöpfliche Computerleistung, die an jedem Ort verfügbar sein soll, und das Konzept des so genannten ''pervasive Computing'' ablösen soll.

    Das vor rund zwei Jahren ins Leben gerufene Konzept des so genannten ''pervasive Computing'' sieht vor, Computerleistung in Form von Mikroprozessoren sprichwörtlich an jeden Ort zu tragen. Selbst in Kleidung sollten demnach Mikroprozessoren die Körpertemperatur auswerten und dem Träger darüber Bericht erstatten, während Chips im Kühlschrank darüber wachen, dass die Milch nicht verdirbt oder etwa rechtzeitig Käse nachgeordert wird. Doch das Konzept dezentralisierter Minichips scheint zunehmend der Idee gebündelter Recheneinheiten zu weichen: das so genannte "adaptive Computing" sieht nämlich vor, dass Computerleistung an jedem Ort dann nicht verfügbar ist, weil viele Mikroprozessoren in allen möglichen Gegenständen integriert sind, sondern weil enorme Mengen an Datenleitungen eine ständige Vernetzung mit großen Rechenzentrem erlauben, die selbst die eigentliche Dienstleistung erbringen. Statt riesiger Großrechner sollen dabei aber skalierbare Serverfarmen das Rückgrat der Infrastruktur bilden. Datenleitungen transportieren dann sämtliche Informationen von und zu Büros, in die Wohnzimmer oder auch via Funk ins Auto. Im Vordergrund steht dabei indes die geschäftliche Nutzung. Statt eigene Rechner zu kaufen, sollen Unternehmen, Freiberufler oder auch Einzelhändler schlicht einen Anschluss an eine Datenleitung bestellen und so alle Computerleistungen aus dem Rechenzentrum ihres Providers beziehen.

    Der Trend besitzt einen wirtschaftlichen Hintergrund, den Sun Microsystems-Manager Ingo Frobenius anlässlich der Münchener Metagroup-Konferenz unverblümt schildert: "Rechenzentren besitzen heute große Überkapazitäten an Rechenleistung, die die Betreiber heute besser ausnutzen möchten. Bei allen Ansätzen des so genannten adaptiven Computings geht es also um eine bessere Auslastung der Datacenter bei gleichzeitiger Reduktion der Kosten." Hinter dem neuen Verkaufsmodell steckt indes auch ein neuer Technologietrend, denn an die Netztechnologie sowie das Management des Netzes werden dabei völlig neue Anforderungen gestellt. Allerdings sind die Geräte und Verfahren dafür noch nicht ausreichend entwickelt, erklärt Metagroup-Chef Fred Amoroso: "Da müssen einige Technologien entwickelt werden, damit das adaptive Computing funktioniert, zum Beispiel Integrationstechnologien, Web-Services und Abrechnungstechnologien. Da gibt es viele Technologien, die implementiert werden müssen, damit die notwendige Integration für das adaptive Computing geleistet wird." Viele offene Fragen gilt es dabei noch zu lösen, darunter der Aspekt der Datensicherheit. Denn wenn alle Computerleistungen über Datenleitungen transportiert werden, fließen auch viele sensible Daten durch die Drähte des Internet. Alleine mit Verschlüsselung sei das, so meinen Experten, nicht in den Griff zu bekommen. So genannte "getunnelte" Datenleitungen, die selbst ein besonders abgeschirmtes Netzwerk über Internetverbindungen darstellen, sind aber sehr aufwändig zu betreiben und so genannte dedizierte Verbindungen über eigene Leitungen – wie etwa das Militär und Großkonzerne unterhalten – verursachen extreme Kosten. Als wahrscheinlichste Lösung sehen Fachleute eine Kombination an aus Verschlüsselung, getunnelten Verbindungen und teilabgeschirmten Leitungen.

    Ein weiteres Problem stellt die Integration aller Beteiligten dar, denn die bei Unternehmen und Verbrauchern existierende Computerinfrastruktur muss in das adaptive Computing eingebunden werden. Also muss auch eine Vielzahl an unterschiedlichen Betriebssystemen und Computerprogrammen aufeinander abgestimmt werden. Während dies in großen Firmen bereits unter eigens entwickelten Schnittstellen betrieben wird, fehlt es aber noch an geeigneten Standards, um Endverbraucher und Anwendungen wie etwa die Gebäudetechnik an ein solches "Übernetz" zu koppeln. Ein weiteres Problem stellt dabei auch die Abrechnung der genutzten Rechenleistung dar. Während dies bei einer überschaubaren Zahl an speziellen Anwendungen in der Industrie bereits gelingt, stellt die Verwaltung unzähliger Heimanwendungen eine große Herausforderung an die Hersteller dar. Doch am Ende, so sind die Analysten zuversichtlich, könnte gar eine einheitliche Computerwährung daraus entstehen.

    [Quelle: Peter Welchering]