Montag, 22.07.2019
 
Seit 13:35 Uhr Wirtschaft am Mittag
Startseite@mediasres"Denken können Maschinen bis heute nicht"15.11.2018

Künstliche Intelligenz im Journalismus"Denken können Maschinen bis heute nicht"

Daten sammeln, verarbeiten und in Texte umwandeln – Kollege Roboterjournalist arbeitet längst für bestimmte Medien. Doch für den Einsatz dieser Computerprogramme gebe es Grenzen, sagte Technikjournalist Jan Rähm im Dlf.

Jan Rähm im Gespräch mit Antje Allroggen

Frühe Werke von menschlich wirkenden Robotern stehen der Ausstellung: "Künstliche Intelligenz und Robotik" im Heinz Nixdorf MuseumsForum (picture alliance/Guido Kirchner/dpa)
Einige Roboter sollen menschlich wirken, andere ersetzen längst Menschen bei der Arbeit. (picture alliance/Guido Kirchner/dpa)
Mehr zum Thema

Marina Weisband Wie Medien über Künstliche Intelligenz berichten (müssen)

Digitalstrategie bei der BBC Künstliche Intelligenz und Social Bots

Antje Allroggen: Neuland war gestern, heute bewohnt man es sozusagen schon. Das Bundeskabinett setzt heute seine zweitägige Klausur zum Thema Digitalisierung fort. Es geht dabei um verschiedene Fragen, unter anderem um KI, die Künstliche Intelligenz, und: um viel Geld. Allein in die KI sollen bis 2015 sechs Milliarden Euro fließen. Kritisiert wurde an diesem Vorhaben schon, dass es wohl noch keine konkreten Vorstellungen dazu gibt, was man mit dem Geld anfangen will. Wir reden an dieser Stelle darüber, weil KI auch für den Journalismus durchaus interessant ist. Jan Rähm, IT-Experte, was versteht man unter Künstlicher Intelligenz in den Medien denn eigentlich?

Jan Rähm: Künstliche Intelligenz ist, wenn Computerprogramme und die entsprechenden Rechenvorschriften in diesem Programm, man nennt sie Algorithmen, aus eigener Kraft Neues erschaffen. Im Journalismus sind das Ganze natürlich meist Texte. Und in Grenzen gibt es das heute auch schon. Beispiel: Stuttgarter Zeitung. Hier gibt es eine Künstliche Intelligenz, die textet über die Feinstaubbelastung in der Stadt. Und die Basis dieser Texte sind Messwerte eines Stuttgarter Labors. Einige andere, etwas weniger konkrete Beispiele wären zum Beispiel Sportberichte, Wirtschaftsnachrichten oder Wetternews. Die werden von einigen Medien in dieser Welt bereits automatisiert erstellt. Und ein weiteres, dann wieder konkreteres Beispiel, das wäre der Lokaljournalismus.

Allroggen: Der hat es ja eh nicht gerade leicht und kann nur überleben, wenn er seinen Leserinnen und Lesern sehr authentische Texte liefert. Von Menschen, die in der Region, über die sie schreiben, auch leben. Und ausgerechnet hier sollen also blutleere Roboter die Arbeit übernehmen?

Rähm: Ja, das ist der große Widerspruch. Aber: Ja, im Lokaljournalismus nimmt Kollege Computer die Arbeit auf, nämlich in Großbritannien. Dort gibt es eine Presseagentur namens "Press Association". Und die erstellt maschinell lokale Texte mit Hilfe von Künstlicher Intelligenz, also mit Programmen auf dem Computer. Und die Software wird gefüttert mit Daten von Behörden und der Regierung. Und daraus entstehen dann Geschichten zum Beispiel über die Geburtenraten-Entwicklung oder im weitesten Sinne auch über Bildungschancen.

Schlagwort Big Data

Allroggen: Also KI im Journalismus, das gibt es, wenn ich das richtig verstanden habe, überall dort, wo es um das Zusammentragen von Daten und Fakten geht, das können diese Roboter gut, vielleicht sogar besser als mancher Journalist. Aber wer füttert die Maschinen denn mit diesem Wissen? Wie funktioniert computergenerierter Journalismus?

Rähm: Die Daten kommen von überall her, kann man sagen. Also Daten werden gesammelt, es gibt da ja dieses Schlagwort Big Data. Und diese Daten fließen dann in Programme. Die Programme werden natürlich auch wieder von Menschen erstellt. Und da werden Satzgruppen vorbereitet, da werden Floskeln, die üblich sind, zum Beispiel im Sport, werden dort vorbereitet, ganze Redewendungen. Also: Es werden ganze Textbausteine in einen automatisierten Baukasten gestellt. Und daraus generieren die Programme dann Meldungen und Berichte, die heute in Einzelfällen schon nicht mehr von denen zu unterscheiden sind, die ein Mensch geschrieben hat. Meist sind diese Texte aber noch sehr, sehr klar als computergeneriert zu erkennen. Also allzu tiefgründige oder analytische Geschichten oder menschelnde Geschichten, wie man sie aus dem Lokalen kennt, die sollte man im Moment nicht erwarten. Das kann sich allerdings auch noch ändern. Denn künftig werden Roboterjournalisten natürlich nicht nur auf vorgefertigte Datensätze und Textbausteine aufsetzen, sondern, und da kommt dann ein weiterer Aspekt der Künstlichen Intelligenz, also der Entwicklung der Künstlichen Intelligenz: Das ist das maschinelle Lernen. Mit Hilfe dieses maschinellen Lernens sollen die Programme in der Lage sein, selber Erkenntnisse zu gewinnen, Muster oder Zusammenhänge zu erkennen, und dann eventuell eigenständig Geschichten zu schreiben.

Auch maschinell erstellte Texte sind fehleranfällig

Allroggen: Das klingt ja schon ziemlich fortgeschritten. Wo sehen Sie derzeit denn die Grenzen eines KI-gestützten maschinellen Journalismus, gibt es die?

Rähm: Ja, die gibt es ganz klar. Und zwar spätestens da, wo der Mensch kreativ wird, wo gedacht werden muss, wo analysiert werden muss. Also man kann wirklich sagen: Ja, im wahrsten Sinne des Wortes: Denken, das können die Maschinen bis heute noch nicht.

Allroggen: Da haben wir bei @mediasres also erst noch einmal Glück gehabt? Eine Magazinsendung wie unsere war jetzt bei Ihren Ausführungen nicht dabei.

Rähm: Nein, im Moment noch nicht. Aber was nicht ist, kann ja noch werden. Denn der Computer ist ja auf Daten angewiesen. Da passiert es dann übrigens auch, dass mal was schiefgehen kann. Denn wenn der Computer falsche Daten bekommt oder nicht zum richtigen Zeitpunkt die Daten bekommt, dann entstehen falsche Texte. Das ist in Deutschland bei einem Wirtschaftsblatt passiert. Und die Grenzen gibt es auch dort, wo erklärt werden muss, wo eingeordnet werden muss, also wie hier in @mediasres. Oder wo es richtig komplexe Zusammenhänge zu verstehen gibt, zum Beispiel im Wissenschaftsjournalismus. In diesen und in weiteren Bereichen ist es eher unwahrscheinlich, dass der Computer in allzu naher Zukunft die Schreibtische in den Redaktionen übernehmen wird.

Ein Motiv: Kosten sparen

Allroggen: Und welche Motivation steckt dahinter: Maschinen statt Menschen journalistisch arbeiten zu lassen? Spart das Kosten?

Rähm: Ja, klar. Das ist auf lange Sicht natürlich das, was die Verleger wollen. Sie möchten natürlich Kosten sparen. Aber: Aktuell, und das betonen die Beteiligten wie der Chef der eben genannten britischen Press Association. Der Roboterjournalismus kostet im Moment noch relativ viel Geld. Da sind natürlich die Kosten für die Maschinen selbst, auf denen ja die Programme laufen. Aber eben auch die Lizenzen der Programme, die die Arbeit machen. Und dann gibt's da natürlich auch noch die ganzen Programmierer und Administratoren. Die wollen natürlich auch erstmal gut bezahlt werden. Wir stehen ja noch relativ weit am Anfang. Man kann aber damit rechnen, dass, wenn der KI-gestützte Journalismus, also diese Software, erstmal halbwegs etabliert ist, dann werden die Kosten sinken. Und dann wird, das ist relativ klar, es so sein, dass maschinell geschriebene Inhalte nur noch einen Bruchteil der handgeschriebenen Texte kosten. Und die kosten ja, teilweise im Lokalen, schon heute nicht mehr viel.

Allroggen: Kann man den Inhalt solcher Maschinen eigentlich auch manipulieren, etwa für politische Zwecke?

Rähm: Auf jeden Fall. Da ist es ein bisschen so wie mit den Wahlcomputern oder mit jeder Maschine. Die Maschine macht ja erstmal, was Menschen dieser Maschine vorgeben. Und wenn ich dieser Maschine etwas vorgebe, was schon vom Input her eine Tendenz hat, eine falsche Richtung hat, lügt oder Gerüchte verbreitet, Propaganda verbreitet, dann übernimmt das natürlich die Maschine und macht ihre Arbeit. Weil die Maschine kann ja im Moment noch gar nicht sagen: Ist das eigentlich Fakt? Ist das die Wahrheit? Oder was ist das eigentlich, was ich da verarbeite? Die verarbeitet, weil sie soll das verarbeiten.

Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk