Donnerstag, 25. April 2024

Archiv


Vertrauen durch Offenheit

Während der EU-Präsidentschaft Anfang kommenden Jahres will die Bundesregierung sich auch für den Ausbau von Informationstechnologien in der Union einsetzen. Ein wichtiges Vorhaben dabei ist das umstrittene Trusted Computing, das Hackern das Leben schwer machen soll.

Von Mariann Unterluggauer | 11.11.2006
    "Wer hier in Deutschland die Vertrauensfrage stellt, der macht wirklich ein großes Fass auf."

    Dirk Kuhlmann arbeitet am "Trusted Systems Lab" von Hewlett Packard in Bristol und ist technischer Koordinator des Projektes "Open Trusted Computing". Ein großes Fass aufgemacht hat vor rund vier Jahren auch Microsoft. Damals präsentierte die Softwarefirma ihre Vorstellung von Trusted Computing unter dem Namen Palladium. So mancher befürchtete, dass Microsoft damit das Ende der freien Softwareentwicklung eingeläutet hätte. Heute spricht niemand mehr von Palladium, sondern von Microsofts neuem Entwurf für eine sicherere Computer Plattform. Die Trusted Computing Group hat in der Zwischenzeit ein Papier veröffentlicht, indem sie den Stellenwert von Privatheit betont, und man hat sich auf eine Definition des Wortes "Vertrauen" geeinigt: Vertrauen sei ein erwartbares Verhalten. Um das zu erreichen, setzt man nicht nur auf Software, sondern auch auf modifizierte Hardware. Federführend an den Spezifikationen für den so genannten TPM-Chip beteiligt war David Grawrock von Intel. TPM steht für "trusted platform module":

    "Es ist nicht die Aufgabe von "trusted computing", zu bestimmen, was gut und was schlecht ist. Wir sagen: Entscheiden Sie selbst - eignet sich dieses Werkzeug für ihre Aufgabe? Das meinen wir mit vertrauensvoller Software. Manche mögen mit unseren Vorstellungen von Vertrauen und Sicherheit ein Problem haben, aber mit dieser Definition können wir uns jetzt die Fragen stellen: Haben wir die geeigneten Methoden für den Job? Können wir diesen Zustand erreichen, Sicherheit und Vertrauen zu haben? Die Definition dient uns dafür als Arbeitsgrundlage."

    In den Diskussionen rund um "trusted computing" hat sich die Industrie weitgehend von der Vorstellung verabschiedet, ganze Rechner kontrollieren zu wollen. Stattdessen setzt man jetzt auf einzelne, abgeschirmte Partitionen, in denen sicherheitskritische Applikationen abgewickelt werden sollen: Damit will man gewährleisten, dass einem Angreifer nicht gleich der ganze Rechner in die Hände fällt.

    "Das ist sozusagen eine Eindämmungsstrategie, wo wir praktisch den größtmöglichen Schaden angeben können, den ein wild laufendes Compartment erzeugen kann. Und das ist viel mehr als das, was sie im Augenblick haben. Im Augenblick gibt es alle möglichen Arten von Programmen auf Ihren Betriebssystemen, von denen jedes übernommen werden kann. Bei vielen ist es so, dass den Leuten, denen das gelingt, gleich ihr ganzer Computer gehört. Also wir betrachten das als Fortschritt."

    Vor ein paar Jahren wäre es noch unvorstellbar gewesen, dass Trusted Computing unter dem Label Open Source verkauft werden kann. Schließlich ist die Freie-Software-Bewegung angetreten, die Freiheit zu garantieren, dass Code nicht nur gelesen, sondern auch modifizert werden kann. Das Projekt "Open Trusted Computing", das von HP, Novell, AMD, Infineon, Novell/Suse und der Europäischen Union gefördert wird, erfüllt zumindest alle formalen Anforderungen für ein Open Source Projekt: Ihr Code - so Dirk Kuhlmann - werde unter der GPL-Lizenz veröffentlicht.

    "Also "open" heißt zuallererst Quelloffenheit. Wir sind der Meinung, dass erstmal prinzipiell von Nutzen ist, wenn man sich den Sourcecode insbesondere für Komponenten anschauen kann, die als vertrauenswürdig deklariert werden."

    Das garantiert zumindest, dass man dem Code nicht mehr blind vertrauen muss. Der Code, so Dirk Kuhlmann weiter, werde auch einem Kontrollprogramm unterzogen, um einen gewissen Qualitätsstandard zu sichern. Allerdings fällt damit die Freiheit der Modifikation.

    "Denn modifiziert man es, dann entspricht die Erklärung des Implementierers nicht mehr der Ausführung des Programms und damit haben Sie sich ein Problem eingehandelt. Also insofern gibt es da zwei Freiheiten: Zum einen die Freiheit, zu erklären, was es tut, zum anderen die Freiheit der Modifikation. Aber diese beiden Dinge gehen nicht unbedingt konform miteinander. Das ist ein neuartiges Problem, über das sich die Leute erst seit einiger Zeit überhaupt Gedanken machen."

    Eine andere Methode, die von Usern ein gewisses Vertrauen abverlangt, nennt sich "Remote attestation". Gemeint ist damit die Fernüberprüfung eines Rechners, ob dieser auch die Bedingungen erfüllt, um einen bestimmten Dienst in Anspruch nehmen zu können. Seth Schoen von der Electronic Frontier Foundation kritisiert diesen Ansatz seit langem. Jedoch ist es für ihn heute schwerer, der Industrie deswegen einen Vorwurf zu machen. Die Trusted Computing Group hat dazu gelernt und definiert die Grenzen ein wenig verschwommener. Ob das als vertrauensbildende Maßnahme ausreicht, bleibt abzuwarten:

    "Warum sollten User auf die Möglichkeit verzichten, selbst zu entscheiden, welche Software sie verwenden möchten? David Grawrocks korrekte Antwort darauf war: Das Recht bleibt ihnen unbenommen. Nur wenn eine Website einen guten Grund dafür hat, wird sie die Freiheit der Browserwahl einschränken. Und auch nur für den Zeitraum, in dem eine bestimmte Interaktion stattfindet. Indem sie auf die 100prozentige Umsetzung ihrer Idee verzichtet haben, lassen sich jetzt ihre Forderungen leichter umsetzen. Sie hatten schon früher Mittel und Wege, aber die waren nicht so gut, die waren nicht so billig, die waren nicht so effektiv und die waren nicht so hart zu umgehen."

    Seit geraumer Zeit werden Computer mit TPM-Chip ausgeliefert. Damit der aus seinem Schlummerzustand erweckt werden kann, fehlt es noch an den notwendigen Programmen und der Bereitschaft der Firmen, ihre alten Rechnerfarmen zu entsorgen. Denn erst dann wird eine kritische Masse erreicht sein, die das Projekt auch für Softwarefirmen finanziell interessant erscheinen lässt.