Mittwoch, 13.12.2017
Startseite@mediasresComputer alleine können noch keine Fake News erkennen09.10.2017

Medienbeobachterkongress in BerlinComputer alleine können noch keine Fake News erkennen

Die Technik sei noch nicht so weit entwickelt, unwahre Behauptungen von Computern analysieren zu lassen, haben Experten ausgewertet. Auf einer Tagung in Berlin haben sie auch darüber diskutiert, welche Eigenschaften Computerprogramme haben müssten, um Falschmeldungen vollautomatisch und in Echtzeit zu finden.

Von Philip Banse

Hören Sie unsere Beiträge in der Dlf Audiothek
Hände tippen an einem Notebook. (dpa / Hans-Jürgen Wiedl)
Für Computer scheint es noch nicht möglich zu sein, vollautomatisch Falschmeldungen zu finden. (dpa / Hans-Jürgen Wiedl)
Mehr zum Thema

World Media Intelligence Congress Programm 2017

Fake News Datenbanktool checkt automatisch die Qualität von Argumenten

ARD, Correctiv und Co. Zweifel am Kampf gegen "Fake News"

BuzzFeed-Studie Die Macht der "Fake News" in den USA

Falschmeldungen finden, selbstständig und vollautomatisch - das scheint für Computer heute kaum machbar, so der Tenor beim Kongress von FIBEP, einer Lobbyorganisation von Firmen, die professionell Medien auswerten. Selbst bei enger Auslegung von Fake News, stoßen Rechner heute an ihre Grenzen: 
 
"Mein Verständnis von Fake News sind öffentliche Aussagen, die vom Verfasser bewusst als Falschaussagen in die Welt gesetzt wurden und die bei einem bestimmten Zielpublikum eine große Verbreitung erzielen," sagt Patrick Bunk.

Patrick Bunk, Gründer und Chef von Ubermetrics, einem Berliner Start-Up, das für Firmenkunden Medien analysiert. Computer zu trainieren, um vollautomatisiert Falschmeldungen zu erkennen, sei heute kaum möglich:

"Man müsste jeden Autor auf jedem Netzwerk, auf jeder Quelle tracken: Was schreibt er zu welchem Thema? Welche seiner Aussagen in seinen Texten sind wahr? Und wahr würde man dadurch definieren, dass man sagt, andere renommierte Medien wiederholen die gleichen Aussagen. Darüber könnte man über längere Zeit so eine Art Reputation festlegen, automatisiert, um dann Computern zu sagen: Dieser Mensch hat noch nie etwas zu diesem Thema gesagt, das tut er jetzt das erste Mal, ist ein bisschen kritisch."
  
Doch was einfach klingt, ist im Detail sehr schwer: So hätten Menschen aus AfD-Kreisen vor der Bundestagswahl eine Meldung verbreitet, "dass ein Syrer 23 Kinder nach Deutschland geholt und dafür 360.000 Euro vom deutschen Staat bekommen hätte." (O-Ton Bunk) 

Computer können nicht selbstständig auswerten

Eine Aussage, die als vertrauenswürdig eingestufte Medien als falsch entlarvt hatten. Doch Computer zwei Aussagen vergleichen zu lassen, sei komplex, sagt Medien-Analyst Patrick Bunk:  
 
"Das ist in Arbeit. Aber das ist noch ein ganz weiter Weg. Denn Computern zu erklären, was eine Aussage in einem Text ist, und diese Aussage so umzustrukturieren, dass ich die vergleichen kann mit anderen Aussagen in anderen Texten, ist extrem schwer." 
 
So habe der Computer einem Mitarbeiter lediglich geholfen, die Meldung aus AfD-Kreisen als falsch zu erkennen.  

Laura Garcia analysiert mit ihrer Firma Global News Group Medien für allem für südamerikanische Kunden. Um Falschmeldungen auf die Schliche zu kommen, überprüft sie vier Faktoren: Wie vertrauenswürdig ist der Autor? Was wissen wir über die Quelle? Taucht der Inhalt bei renommierten Medien auf? Wo ist die Behauptung zum ersten Mal aufgetaucht? Doch die meisten dieser Bewertungen müssten in ihrer Firma noch Menschen vornehmen. 
 
Das Werkzeug sage auch nicht, was wahr und falsch ist, sondern gebe Menschen nur Wahrscheinlichkeiten, einen Hinweis. 

 
Autmatisierte Werkzeuge könnten helfen, herauszufinden, woher Informationen kommen

An eine vollständige Automatisierung der Suche nach Falschmeldungen glaubt auch David Mikkelson nicht. David Mikkelson hat Snopes.com gegründet, ein Unternehmen, das mit aktuell 16 Mitarbeitern Medienberichte auf ihre Richtigkeit überprüft - auch im Auftrag von Facebook. Die Arbeit sei klassische journalistische Handarbeit und laufe derzeit komplett manuell ab insofern, dass Menschen die Fact-Check-Artikel schreiben. 
 
Mikkelson kann sich aber vorstellen, dass wichtige Teile seiner Arbeit demnächst automatisiert werden: Um Menschen die Aussage "wahr oder falsch" zu erleichtern, könnten Roboter statistische Daten sammeln: Zahl der Autounfälle unter Alkoholeinfluss; Zahl der Menschen, die durch fallende Kokosnüsse getötet werden. Interessanter sei es aber, wenn Computer das Netzwerk kartographieren könnten aller Computer, die Meldungen veröffentlichen:
 
"Viele Webseiten sind miteinander verbunden, haben gemeinsame Eigentümer, verbreiten aber völlig gegensätzliche Geschichten, eine linksextreme und eine rechtsextreme Version ein und derselben Geschichte; sie starten eine Bürgerrechtsgruppe und eine Gruppe, die genau diese Bürgerrechtsgruppe bekämpft. Mit automatisierten Werkzeugen könnte man sicher herausfinden, woher Informationen kommen und wer hinter ihnen steckt."

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk