Donnerstag, 25. April 2024

Archiv

Maschinelles Lernen
Bei komplexen Problemen versagt die klassische Idee des Computers

Die klassische Idee von einem Computer ist diese: Man gibt ihm eine Rechenvorschrift, ein Programm. Man gibt ihm etwas zum Rechnen. Hinten kommt ein Ergebnis heraus. Bei vielen Themen findet man keine eindeutige Rechenvorschrift, weil das Problem zu komplex ist. Hier tritt ein relativ junger Zweig der IT auf den Plan - das maschinellen Lernens.

Maximilian Schönherr im Gespräch mit Manfred Kloiber | 28.03.2015
    Manfred Kloiber: Maximilian Schönherr, wir haben gehört, was die lernenden Maschinen tun können? Aber wie lernen sie eigentlich?
    Maximilian Schönherr: Man muss sich das so vorstellen, dass man einen Haufen von Daten in den Rechner eingibt, und einen Algorithmus anwirft, der sich die Daten ansieht. Begleitend sagt man ihm: Das ist die Farbe Grün, oder das ist ein Tumor, dieser Laut bedeutet „und“, ob er nun bayerisch oder sächsisch gesprochen wird. Der Die Maschine geht dann tatsächlich „in sich“ und brütet über die Zusammenhänge nach. Am Ende hat sie ein Modell erbrütet. Ein Modell für Sprachanalyse oder eins für Gesichtererkennung. Und dann kann man ihr ein völlig neues Bild aus einem fahrenden Auto geben, mit einem völlig verschwommenen Stoppschild, und fragen: Ist da ein Verkehrskennzeichen drauf zu sehen, und wenn ja, welches? Und wenn das System dann beharrlich sagt, ich seh nichts, oder ich sehe einen Rechtspfeil, dann muss man in den Trainingsprozess zurück gehen, vielleicht einen anderen Maschinen-Lern-Algorithmus wählen.
    Kloiber: Dieses Verfahren unterscheidet sich vom klassischen Programmieren ganz erheblich, weil man ja nicht genau weiß, wie die Maschine aus ihren Lernerfahrungen Schlüsse für neues Material zieht?
    Schönherr: Damit sind wir bei einem ethischen Problem: Egal, ob man für maschinelles Lernen so genannte Kernalgorithmen, Support-Vektor-Maschinen oder neuronale Netzwerke einsetzt, es ist nicht nachvollziehbar, wie die Software zu ihrem Ergebnis kommt. Wenn ein ABS-System mal falsch bremst oder Outlook abstürzt, findet man die Stelle im Code, wo es hakte. Beim Deep Learning sieht man nur diffuse statistische Gewichtungen. Deswegen werden zum Beispiel bei der Verkehrskennzeichenerkennung diese hervorragenden Systeme nur beratend eingesetzt, sie dürfen aber nicht tatsächlich den Brems-Vorgang einleiten.
    Bei Jeremy Howards Lungenkrebs-Diagnostik wird es so sein, sagte er mir, dass in vielen Arztpraxen in Indien und China zwar die CT-Scanner stehen, aber keine Radiologen da sind, um die Bilder zu beurteilen. Wer haftet, wenn ein Patient mit einem Tumor nicht operiert wird, weil das Deep Learning-System sagt: Das ist nur ein Kalkeinschluss?
    Kloiber: Der Erfolg von Deep Learning ist unumstritten. Können Sie einige Problemfelder nennen, womit sich die Programmierer noch beschäftigen müssen?
    Schönherr: Die Parallelisierbarkeit ist ein Hauptproblem: Grafikkarten sind heute so leistungsfähig und preiswert, dass man Maschinelles Lernen am besten parallel, eben in neuronalen Netzen erledigt. Sehr viele Datenarbeiten lassen sich aber nicht parallelisieren.
    Skalierbarkeit ist ein weiteres Thema. Wenn ein Verfahren gut funktioniert, mit doppelt so vielen Daten aber viermal so lang braucht, muss man sich etwas anderes überlegen.
    Es ist nicht klar, wann man beim Deep Learning abbrechen muss, denn die Maschine lernt immer weiter hinzu. Kann immer sein, dass sie fünf Minuten später etwas ganz Tolles gefunden hätte.
    Auch lernende Algorithmen sind ein Thema; bisher sind die Algorithmen starr und formen sozusagen nur die Daten, nicht aber sich selbst.