Freitag, 19. April 2024

Archiv

Big-Data-Analysen am Cern
Risiken und Chancen von Prognosewerkzeugen

Am Datenzentrum der europäischen Kernforschungsorganisation Cern in Genf arbeiten Forscher an Big-Data-Analysen, mit denen sich bestimmte Ereignisse präzise voraussagen lassen können. Das kann in vielen Bereichen hilfreich sein - birgt aber auch Risiken, wie Peter Welchering im DLF erklärt.

Peter Welchering im Gespräch mit Manfred Kloiber | 01.08.2015
    Beleuchteter Schriftzug "Cern" an einer dunklen Wand, rechts im Vordergrund der Schatten einer Person, die den Schriftzug fotografiert
    Am Cern werden dafür Big-Data-Analysen entwickelt. (FABRICE COFFRINI / AFP)
    Manfred Kloiber: "Wir erzeugen in einem Experiment ein Petabyte in der Sekunde. Diese Datenmenge müssen wir reduzieren, um die interessanten Daten zu erhalten und von den weniger interessanten zu trennen." Hört sich ziemlich einfach an, was der Datenspezialist Jean-Michel Jouanigot da beschreibt. Er leitet das Datenzentrum der europäischen Kernforschungsorganisation Cern in Genf. Dahinter steckt aber ein riesiger Programmieraufwand, um die interessanten Daten von den weniger interessanten zu trennen. Am Cern wurden und werden dafür Big-Data-Analysen entwickelt. Und die in Genf entwickelten Algorithmen für die Datenanalyse finden zunehmend ihren Weg auch in andere Bereiche. Welche sind das, Peter Welchering?
    Peter Welchering: Das waren zunächst in den Neunzigerjahren Analysealgorithmen für Data Warehouses. Die haben ganz einfach wahrscheinliche Beziehungen zwischen Ereignissen aufgezeigt. So konnte dann durch eine Datenanalyse ein Verhaltensmuster erkannt werden, zum Beispiel, dass junge Männer, die abends in Supermärkten Windeln kaufen, auch ein Six Pack Bier mitnehmen. Solche Muster lassen sich in Daten recht einfach erkennen. Die Big-Data-Analysen, die am Cern entwickelt wurden und eingesetzt werden, um zum Beispiel nach supersymmetrischen Teilchen zu suchen oder nach dem Higgs-Boson, die leisten das, was die Datenwissenschaftler eine prädiktive Analyse nennen, also eine genaue Prognose dessen, was geschehen wird. Und diese Algorithmen lassen sich nicht nur bei der Suche nach dem Higgs-Boson anwenden, sondern zur Prognose, wie ein bestimmtes Medikament bei einem bestimmten Patienten wirkt. Es kann damit prognostiziert werden, welche Straßenzüge morgen wann wie viel Strom brauchen. Es lässt sich damit berechnen, welche Supermarktfiliale Montag nächste Woche wie viel Blattsalat oder Hackfleisch verkaufen wird - und das mit einer unglaublichen Genauigkeit.
    Medizin: Auswertung historischer Behandlungsverläufe
    Kloiber: Das klingt ja alles ein wenig nach Science-Fiction. Wie können denn diese Analyseprogramme aus der Teilchenphysik zum Beispiel in die Medizin übertragen werden, Peter Welchering?
    Welchering: Übertragen werden kann zunächst das Modell des Zusammenspiels von Simulationsrechnung, Mustererkennung und der Berechnung statistischer Wahrscheinlichkeiten. Die Datenbeschaffung und die Messung sehen dann natürlich anders aus. In der Teilchenphysik wird nach der Simulationsrechnung ein Experiment zum Beispiel am Teilchenbeschleuniger gefahren. Und dann werden die Daten ausgewertet. In der Medizin kann nach einer Simulationsrechnung nicht einfach ein bestimmtes Medikament am Menschen getestet werden. Dafür werden historische Behandlungsverläufe genommen. Das heißt, es werden Muster aus historischen Daten gewonnen. Menschen, die eine bestimmte Krankheit hatten und mit bestimmten Medikamenten behandelt wurden. Die statistische Wahrscheinlichkeit, die dann berechnet wird, bezieht sich zunächst auf das historische Material. Also aus den Daten der historischen Fälle werden Prognosen für den weiteren Verlauf gewonnen. Und dann wird geprüft, verliefen diese Fälle in der Historie wirklich so oder ganz anders und welche Ursachen können dafür verantwortlich gemacht werden.
    "Es kann auch großer Schaden angerichtet werden"
    Kloiber: Müssen dafür die Algorithmen nicht neu geschrieben werden? Die waren ja für Anwendungen in der Teilchenphysik gedacht.
    Welchering: Die Algorithmen müssen natürlich weiter entwickelt werden. Aber die Software, so wie sie am Cern für Simulation, Mustererkennung und Wahrscheinlichkeitsberechnung entwickelt wurde, wird erst einmal so genommen und dann auf andere Gebiete angewandt. Das heißt, die Algorithmen werden zum Beispiel mit Daten über Straßenbeleuchtung und Ausfallwahrscheinlichkeit von bestimmten Lampen, Leuchtmitteln gefüttert. So lässt sich dann prognostizieren, wann welche Straßenlaterne mit hoher Wahrscheinlichkeit ausfällt. Da sollte vorher die Lampe getauscht werden. Das ist in der Praxis auch schon ausprobiert worden und funktioniert erstaunlich gut.
    Kloiber: Mit diesen Werkzeugen kann auch das Verhalten einzelner Menschen ziemlich genau vorausberechnet werden. Diskutieren die Forscher da ach die gesellschaftlichen Konsequenzen?
    !!Welchering:! Intensiv sogar. Sie sind sich bewusst, dass sie mit diesen Analyse- und Prognosewerkzeugen ein sehr mächtiges Instrument in der Hand haben, mit dem großer Schaden angerichtet werden kann. Sie arbeiten nicht für Sicherheitsbehörden. Und sie drängen auf die gesellschaftliche Debatte, welche Analyse- und Prognosewerkzeuge zugelassen werden sollen, welche verboten oder nur völlig anonymisiert betrieben werden sollen. Problem: Aufklärung setzt Wissen über die Zusammenhänge voraus. Da ist vielen Menschen dieses Thema Big-Data-Analyse zu komplex, als dass sie sich darauf einlassen würden.