Dienstag, 28.01.2020
 
StartseiteComputer und KommunikationWie Computer durch Big Data ihr Verhalten ändern28.03.2015

Maschinelles Lernen Wie Computer durch Big Data ihr Verhalten ändern

Künstliche Intelligenz und neuronale Netze waren jahrelang ein Traum von Computerexperten. Der scheint allmählich Wirklichkeit zu werden. Der Australier Jeremy Howard meint, Deep Learning werde einmal fast alles ersetzen, was Menschen heute beruflich so tun.

Von Maximilian Schönherr

Google-Rechenzentrum in Finnland (Google)
Google-Rechenzentrum in Finnland. Googles Android-Spracherkennung für Smartphones gilt als Musterbeispiel für Maschinenlernen mit riesigen Datenmengen. (Google)
Weiterführende Information

Jeremy Howard:

- in der englischen Wikipedia

- bei seinem TED-Talk über Deep Learning

- bei seiner neuen Firma enlitic

Tobias Glasmachers:

- im Institut für Neuroinformatik, Uni Bochum: 

Forschungsthema Support-Vektor-Maschinen

Maschinelles Lernen ist ein Traum der KI-Forschung. Unter KI -Künstlicher Intelligenz - verstand man in den 1980er-Jahren Computer, die lernen können, intelligent zu sein. Das klappte nicht. Zwei Jahrzehnte nach der Ernüchterung erstrahlt die KI unter dem Begriff "Maschinenlernen" in einem sehr eleganten Gewand. Der australische Computerexperte und Unternehmer Jeremy Howard: "Maschinenlernen kann man hervorragend da einsetzen, wo es schwer ist, konkrete Regeln in Programmcode zu schreiben. Beispielweise bei Themen wie der Objekterkennung: 'Ist das ein Fußgänger oder ein Baum?' Der maschinell lernende Computer ist da besser als wir Menschen."

Jeremy Howard hat in den USA eine Firma gegründet, die Radiologen ersetzen soll. Er stellte einen Algorithmus auf, den er mit Tausenden von Lungen-CTs fütterte. Zu jedem Röntgenschichtbild gab er die Information hinzu, ob darauf ein bösartiger Tumor zu sehen ist oder nur eine Entzündung oder eine Kalkablagerung. Nach wochenlangem Training mit einem PC und vier rechenstarken Grafikkarten kam das System mit einem Ergebnis heraus: Es kann nun auch völlig unbekannte CTs interpretieren, mit der Treffsicherheit von erfahrenen Radiologen.

Tobias Glasmachers, Juniorprofessor am Institut für Neuroinformatik der Ruhr-Universität Bochum über den Trainingsprozess beim Maschinenlernen und die Klassifikatoren. Klassifikatoren ordnen die Daten und sagen zum Beispiel: Das ist ein Tumor, das aber nicht. "Es ist schon richtig, dass ein großer Teil der Rechenzeit für das Training der Maschine verwendet wird, und da müssen wir unterscheiden zwischen Offline-Training - das heißt, wir haben einen festen Datensatz vorgegeben, wir ziehen uns zurück in unser Rechenzentrum und trainieren die Maschine, und kommen irgendwann mit dem fertigen Klassifikator wieder hervor und liefern den zum Beispiel an den Kunden aus - und Online-Training, wo wir wirklich, während der Klassifikator Vorhersagen macht, noch weiter lernen wollen."

Meistens sind hier große Datenmengen im Spiel, Big Data. Im Portfolio der Maschinenlerner gibt es eine Handvoll Basis-Algorithmen, die sich dafür eignen, Klassifikatoren zu bilden, also zu sagen: Das ist ein Stoppschild, das nicht. Aber für Big Data sind diese Algorithmen zu langsam. Sie sind schlecht darin, Videodatenströme auszuwerten und dabei viel wegzulassen, ohne das Wesentliche zu unterschlagen.
"Im maschinellen Lernen haben wir immer zwei Blickpunkte auf Algorithmen und Probleme: Das eine ist der Informatik-Standpunkt. Da gucken wir uns Laufzeiten von Algorithmen an. Und aus dieser Sicht bekommen wir tatsächlich im Big Data-Bereich massive Probleme, zumindest mit vielen Standardalgorithmen, die es heute gibt. Aus statistischer Sicht sind große Datenmengen eher ein Segen als ein Fluch, und wir können uns viel besser auf unsere Ergebnisse verlassen."

Auch Googles Android-Spracherkennung für Smartphones gilt als Musterbeispiel für Maschinenlernen mit riesigen Datenmengen. Sie erkennt, weitgehend unabhängig von der sprechenden Person, Sätze. Sie ist damit robust, was frühere Spracherkennungen nicht waren. Kein deterministisches Programm, wo man den Ablauf von vorn bis hinten genau kennt, könnte mit dieser Komplexität umgehen.
Bei Google spricht man von "Deep Learning", einer Variante des Maschinenlernens. Deep Learning setzt meist neuronale Netzwerke, verteilt auf mehrere Grafikkarten zum Training ein. Neuronale Netze waren ein Hype in den 1980er Jahren, sind aber erst seit etwa 2012 dank der Rechenpower sinnvoll einsetzbar geworden.

Jeremy Howard, der mit "tiefen" neuronalen Netzen, die er trainiert, Geld verdient, meint, Deep Learning wird einmal fast alles ersetzen, was Menschen heute beruflich so tun. Einen Roman schreibt man damit nicht, aber Routinetätigkeiten wie in einer Schnellküche oder an einer Supermarktkasse oder eben Autofahren wird Deep Learning völlig übernehmen.

"Wir sind noch nicht an dem Punkt, wo wir verstehen, wie man die Entwicklung von Deep Learning-Netzen automatisieren kann. Wir wissen auch noch nicht ganz genau, auf welchen Gebieten Deep Learning besonders gut sein wird. Wir brauchen neue Software, um Deep Learning zugänglicher zu machen."

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk