Mittwoch, 24. April 2024

Archiv


Hilfe in der Not

In der vergangenen Woche trafen sich mehr als 1.300 Computerwissenschaftler und Informatiker in Bonn zur 35. Jahrestagung der Gesellschaft für Informatik. Besonderen Interesses erfreute sich dabei Bundesinnenminister Otto Schily mit seinem "Plan zum Schutz von Informations-Infrastrukturen".

Manfred Kloiber im Gespräch mit Peter Welchering | 24.09.2005
    Manfred Kloiber: Mehr als 1300 Computerwissenschaftler und Informatiker haben sich diese Woche in Bonn zur 35. Jahrestagung der Gesellschaft für Informatik eingefunden. Und so intensiv wie noch nie war Bundesinnenminister Otto Schily an den Debatten der Computerwissenschaftler beteiligt. Wofür wurde denn der Innenminister von den Wissenschaftlern so gelobt, Peter Welchering?

    Peter Welchering: "Nun, Otto Schily hat ja schon vor einigen Wochen einen "Plan zum Schutz von Informations-Infrastrukturen" vorgelegt. Und da waren sich die Computerwissenschaftler in Bonn ziemlich einig, dass genau dieser Bereich viel stärker erforscht werden muss, dass wir hier noch sehr viel umfassendere Pläne für die Computerunterstützung im Katastrophenfall und im Krisenfall brauchen. Und dass wir einen besseren Schutz von Rechnernetzen, Steuerungsmechanismen und insgesamt sehr viel robustere Kommunikations- und Informationsinfrastrukturen brauchen, das festzustellen reicht nicht nur, hier brauchen wir konkrete Werkzeuge. Und die wollen die Wissenschaftler entwickeln."

    Kloiber: Wie kann den so eine Computerunterstützung im Katastrophenfall aussehen?

    Welchering: "Beispielsweise kann mit Technologien virtueller Realität beim Üben geholfen werden. Da können also in der Projektionshöhle der künstlichen Wirklichkeit Rettungsaktionen im Tunnel, auf Brücken geübt werden. Der Vorteil dabei: die Helfer dürfen Fehler machen, aus Fehlern lernen, ohne dass das gleich ernste Konsequenzen hat. So genannte Gefahrgutdatenbanken sind ein weiteres gutes Beispiel: sie enthalten konkrete Anleitungen für die Hilfskräfte, wie mit bestimmten gefährlichen Stoffen umzugehen ist. Auch die Einsatzplanung von Hilfseinheiten wird durch Computerunterstützung sehr erleichtert. Aber auch die aktuelle Information etwa von Unglücksstellen. Professor Hans Lenk von der Universität Oldenburg beschreibt ein Szenario für die Feuerwehr beispielsweise so:"

    Sensoren wie Feuermelder beispielsweise oder auch andere Sensoren können sich im Bedarfsfall untereinander kommunikativ vernetzen bis hin etwa zu der Situation, dass beispielsweise eine solche vernetzte Sensorgruppe einen Brand signalisiert und der anrückenden Feuerwehr in das Einsatzfahrzeug schon Bilder übermittelt, wenn man das entsprechend mit einer Videokamera kombiniert.

    Welchering: "So genannte Ad-hoc-Netze sollen sich im Katastrophenfall aus verschiedenen Sensoren, Kameras, Datenbanken bilden. Und über Mobiltelefone, Laptops, Fernsehantennen oder Funkgeräte tauschen sich die einzelnen Schadensmelder aus. Diese Schadensmelder, das sind Softwareagenten oder Roboter. So dass Maschinen zunächst die Lage im Katastrophengebiet sondieren und sich etwa Menschen da gar nicht erst in Gefahr bringen müssen. Menschen greifen erst en, wenn sie über diese Ad-hoc-Netze ganz genau informiert wurden, was sie im Katastrophenfall machen sollen und vor allen Dingen wie es vor Ort ganz konkret aussieht."

    Kloiber: Sind solche Ad-hoc-Netze denn robust genug, um beispielsweise auf Leitungsunterbrechungen, Ausfall einzelner Sensoren oder auf das Versagen von Datenbanken vor Ort im Katastrophengebiet reagieren zu können?

    Welchering: "Das ist ein riesiges Problem, da sind sie überhaupt noch nicht robust. Unsere Computersysteme, unsere gesamte informationstechnische Infrastruktur, so die Kritik der Computerwissenschaftler in Bonn, ist in der Vergangenheit auf schnellen Profit der eingesetzten Hardware und Software optimiert worden und es wurde kein großer Wert auf Robustheit gelegt. Da muss ein Umdenken stattfinden. Denn sonst fällt diese Technologie im Katastrophenfall einfach aus. Oder noch schimmer: Diese Technologie bringt sogar Fehler hervor und sorgt für Katastrophen. So etwas ist etwa kürzlich in der Schweiz passiert, als dort über viele Stunden kein Zug mehr fuhr. Der Strom war ausgefallen. Das war eigentlich ein eigentlich sehr begrenzter Fehler. Aber dann kam es zum gefürchteten Dominoeffekt. Hans Lenk beschreibt den so:"

    Die entscheidenden Akteure sahen sich 18.000 Fehlermeldungen in einer Minute ausgesetzt - also etwas, was genau nicht passieren darf. Wir müssen die Informationslage immer so bestimmen, dass Menschen mit ihrem Aufmerksamkeitspotenzial nicht überfordert werden. An dieser Stelle wäre eine Isolierung der Fehlerquelle mit einer anderen Informationsumgebung die Rettung gewesen. Man hätte wahrscheinlich für ein paar Minuten einen Teilausfall gehabt, und keinen Gesamtausfall für ein paar Stunden

    Welchering: "Mit 18.000 Fehlermeldungen in der Minute ist jeder Systemadministrator völlig überfordert. Er kann dann nicht mehr angemessen reagieren und erkennen, welche Systeme sind fehlerhaft, welche muss ich abschalten. Und dann setzt sich so ein Fehler weiter fort, und es werden dann Systeme davon betroffen, die eigentlich funktionieren. Und am Ende steht ein flächendeckender Stromausfall wie in der Schweiz."

    Kloiber: Bedeutet das, dass wir ganz neue Benutzeroberflächen für kritische Systeme brauchen?

    Welchering: "Da sagen Wissenschaftler, die reine Oberfläche können wir übernehmen, denn die ist meistens sehr benutzerfreundlich. Aber wir müssen eine Art Intelligenz vor so eine Oberfläche schalten. Das heißt, die Systeme müssen auch gewichten können, welcher Fehler ist wichtig, welcher ist weniger wichtig, mit welchem Fehler darf den Menschen überhaupt behelligen und welche Fehler sind so unwichtig, dass sie im Augenblick noch mal warten können und erst später bearbeitet und repariert werden können."