Samstag, 16.12.2017
StartseiteComputer und KommunikationMit Künstlicher Intelligenz gegen Selbstmord-Videos02.12.2017

FacebookMit Künstlicher Intelligenz gegen Selbstmord-Videos

Facebook setzt ab sofort Künstliche Intelligenz ein, um suizidgefährdete Nutzer zu erkennen und damit das Streamen von Selbstmord-Videos zu verhindern - und zwar durchaus aus eigenem Interesse. Schließlich sind Suizidstreams schlecht für das Image des Unternehmens und damit schlecht für das Werbegeschäft.

Marcus Schuler im Gespräch mit Manfred Kloiber

Hören Sie unsere Beiträge in der Dlf Audiothek
Facebook-Chef Mark Zuckerberg im Innovation Hub in Berlin. (dpa / picture alliance / Kay Nietfeld)
In der Vergangenheit kam es wieder zu Selbstmorden, die live auf Facebook gestreamt wurden. Jetzt geht Facebook dagegen vor - allerdings nicht aus purem Altruismus (dpa / picture alliance / Kay Nietfeld)
Mehr zum Thema

Konferenz "Formate des Politischen" Facebook muss transparenter werden

USA Politik knöpft sich Facebook, Twitter und Google vor

Open Access Warum Elsevier das "Forscher-Facebook'" Researchgate verklagt

Der Tag Maßnahmen gegen Terror - Frankreich im Normalzustand - Facebook unter Druck

Manfred Kloiber: Facebook wirbt für mehr Akzeptanz bei seinen Nutzern - in Deutschland zum Beispiel mit riesigen Plakaten an Bushaltestellen oder großformatigen Anzeigen in Zeitungen und Zeitschriften. Aber auch mit Kampagnen für gute Zwecke. So will die Plattform künftig es beispielsweise einfacher machen, für Spenden aufzurufen. Es sollen dafür keine Gebühren mehr anfallen, kündigte Facebook-Gründer Mark Zuckerberg auf einem Forum für gemeinnützige Arbeit in New York an. Außerdem setzt das Unternehmen ab sofort AI - Künstliche Intelligenz - ein, um Selbstmordabsichten seiner Nutzer erkennen und Gegenmaßnahmen einleiten zu können. Es analysiert dazu die Einträge seiner Nutzer und informiert gegebenenfalls Freunde und Bekannte sowie Psychologen, um einen möglichen Suizid rechtzeitig zu verhindern. Marcus Schuler im Silicon Valley, wie funktioniert das "Alarmsystem" genau?

Marcus Schuler: Facebook setzt Künstliche Intelligenz ein. Computer scannen Live-Videos von Nutzern, sie schauen sich Posts an und analysieren die Kommentare darunter. Es wird nach Satzfragmenten innerhalb von Chats gesucht: Zum Beispiel: "Wie geht es Dir?" oder "Kann ich Dir helfen?". Aber die Stärke der Technologie soll sein, in sekundenschnelle Zusammenhänge zu erkennen - aus diesen Satzfragmenten beispielsweise festzustellen, dass hier tatsächlich jemand selbstmordgefährdet ist. Dann wird ein speziell geschulter Moderator von Facebook benachrichtigt und der kann mit dem Nutzer direkt Kontakt aufnehmen, Facebook-Freunde einschalten und im schlimmsten Fall Polizei oder Hilfsorganisationen benachrichtigen. Das alles soll innerhalb weniger Minuten möglich sein.

"Facebook hat ein hohes Eigeninteresse"

Kloiber: Warum macht Facebook das eigentlich?

Schuler: In der Vergangenheit kam es wieder zu Selbstmorden, die live auf Facebook gestreamt wurden. So hat sich im vergangenen Monat ein Familienvater aus der Türkei vor laufender Kamera erschossen, weil sich seine Tochter ohne seine Erlaubnis verlobt hatte. Genau solche Taten sollen künftig verhindert werden. Man will vermeiden, dass sich solche Videos zum Beispiel viral verbreiten oder gar glorifiziert werden.

Kloiber: Eigentlich eine gute Initiative von Facebook, oder?

Schuler: Klar ist solch ein Bemühen gut und sicherlich wichtig. Suizid ist die weltweit höchste Todesursache. Facebook hat natürlich auch ein hohes Eigeninteresse. Das Unternehmen hat dramatisch versagt, als es russische Wahleinmischung im vergangenen Jahr erlaubt hat. Dadurch wurden die US-Präsidentschaftswahlen natürlich beeinflusst. Lange hat man das abgestritten und dann scheibchenweise zugeben müssen, dass die russische Einmischung größer war als bislang angenommen. Jetzt will man sich in besserem Lichte darstellen. Denn Live gestreamte, auf Facebook übertragene Selbstmorde sind natürlich extrem schädlich für das Image und damit das Werbegeschäft. Das ist die Einnahmequelle von Facebook.

EU-Länder nicht davon betroffen

Kloiber: Facebook setzt die Technologie ab sofort ein. Können die Nutzer denn das automatische Scannen von Einträgen und von Chat-Unterhaltungen verbieten

Schuler: Nein, das ist nicht vorgesehen. Es gibt keine Möglichkeit, diese Funktionalität abzuschalten.

Kloiber: Wie sind die Reaktionen in den USA auf die Einführung dieser neuen Funktion und welche datenschutzrechtlichen Bedenken gibt es?

Schuler: Die Reaktionen sind hier in den USA recht positiv. Facebook ist ja keine Laienspielgruppe, man versteht perfekt, diese neue Initiative zu verkaufen. Jetzt kommt aber das große 'Aber': Bei Facebook ist man sich der datenschutzrechtlichen Komponente natürlich bewusst. Denn die neue Funktionalität wird es einzig in den Ländern der EU nicht geben. Bei Facebook insinuiert man, als übertrieben es die Europäer hier mal wieder mit ihren Datenschutzbedenken. Dennoch zeigt man Respekt. Denn wieder einmal setzt hier Facebook auf ein vollkommen automatisiertes System zur Erkennung. Erst im zweiten Schritt kommen Menschen zum Einsatz. Dafür kann das Unternehmen alle Nutzer-Inhalte abscannen und quasi eingreifen. Das kann im besten Falle so weit gehen, dass auf einmal ein Notarzt vor der Tür steht oder Facebook-Freunde benachrichtigt werden, weil das Netzwerk der Ansicht ist, man wolle sich das Leben nehmen.

Kloiber:Marcus Schuler über Facebooks Pläne, suizidgefährdete Nutzer erkennen zu können, vielen Dank. Es ist Advent - und wenn Sie uns schon etwas länger zuhören, dann wissen sie, im Advent machen wir das eine oder andere auch mal ein bisschen anders. In diesem Jahr erzählen wir von der Zukunft - von jenen Zeiten, in denen künstliche Intelligenz und personal Bots unser Leben dominieren werden. Maximilian Schönherr hat die Geschichte aufgeschrieben. Botologie- Die Zukunft hat begonnen.
 

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk