Samstag, 19.06.2021
 
Seit 00:00 Uhr Nachrichten
StartseiteThemaSoziale Netzwerke nach dem Sturm aufs Kapitol 12.01.2021

Hass im Netz Soziale Netzwerke nach dem Sturm aufs Kapitol

US-Präsident Donald Trump wird vorgeworfen, den Sturm auf das Kapitol mitverursacht zu haben – durch aggressive Social-Media-Rhetorik. Die Rufe nach mehr Kontrolle der Netzwerke werden lauter. Andererseits besteht die Gefahr, dass Privatkonzerne die Meinungsfreiheit einschränken. Ein Zwiespalt.

Ein wütend schauendes Emoticon bei Facebook wird mit einem Mauspfeil angeklickt. (imago images - Thomas Trutschel - photothek.de)
Die großen sozialen Netzwerke tun bereits mehr als früher, um Hass und Hetze zu unterbinden – bloß reichen die Bemühungen nicht aus. (imago images - Thomas Trutschel - photothek.de)
Mehr zum Thema

Soziale Netzwerke wie "Parler" Neue digitale Heimat für Trump-Anhänger

Breitband Sendungsüberblick Soziale Netzwerke gegen Hassrede – Einsicht oder Opportunismus?

Kampf gegen Corona-Fakes Soziale Netzwerke noch mehr in der Pflicht?

Regulation von sozialen Netzwerken "Wir brauchen eine Art Plattform-Rat"

"Be there, will be wild" – mit Tweets wie diesem aus dem Dezember hatte Donald Trump zum Sturm auf das Kapitol am 6. Januar beigetragen. Unmittelbar nach den Vorfällen in Washington reagierten die großen Social-Media-Plattformen Twitter, Facebook und Youtube ungewohnt deutlich und sperrten die Accounts des 45. US-Präsidenten. Zwar schaltete Twitter Trumps Zugang kurzzeitig wieder frei, mittlerweile hat das bereits abgewählte Staatsoberhaupt aber keine Möglichkeit mehr, den Kurznachrichtendienst über seinen gut 88 Millionen Follower starken Account zu nutzen.

Facebook-Chef Mark Zuckerberg begründete am 7. Januar, dem Tag nach den Vorfällen am und im Kapitol, die Sperrung von Trumps Facebook-Account in einem Posting. Demnach habe das Unternehmen Trump in den vergangenen Jahren erlaubt, die Plattform im Einklang mit deren Regeln zu nutzen. Gelegentlich wurden Inhalte entfernt oder Beiträge gekennzeichnet, wenn sie gegen Facebooks Richtlinien verstoßen hätten. "Wir haben dies getan, weil wir glauben, dass die Öffentlichkeit ein Recht auf einen möglichst breiten Zugang zu politischer Rede hat, auch zu kontroverser Rede", schreibt Zuckerberg in seinem Post (in englischer Sprache).

  (imago images / ZUMA Wire) (imago images / ZUMA Wire)US-Wahl und danach - Strategien im Kampf gegen Desinformation in den sozialen Medien
Im Vorfeld der US-Präsidentschaftswahl hatten Plattformen wie Facebook und Twitter verstärktes Vorgehen gegen Desinformation angekündigt. Sie haben sich daran gehalten. Doch reicht das?

Der aktuelle Sachverhalt sei aber grundlegend anders. Diesmal gehe es um die Nutzung der Plattform, um zu einem gewaltsamen Aufstand gegen eine demokratisch gewählte Regierung aufzurufen.

Die Rolle der Intermediären

Der Ausschluss Trumps von Twitter und Co. wird einerseits mit Beifall bedacht, zeigt aber auch die enorme Macht großer Online-Netzwerke (die sogenannten Intermediäre) dabei auf, die Meinungsfreiheit einzuschränken. Längst seien die großen Plattformen supermächtige Institutionen und den staatlichen Institutionen die Kontrolle ein Stück weit entglitten, sagte der Medienwissenschaftler Bernhard Pörksen im Deutschlandfunk. Seine Forderung: "Hier muss ein anderer Prozess ansetzen".

Donald Trump auf Twitter gesperrt Am 09.01.2021 wurde US-Präsident Donald Trump dauerhaft von Twitter gesperrt. Trump hatte über 88 Millionen Follower (dpa / picture alliance / Revierfoto)Donald Trump auf Twitter gesperrt (dpa / picture alliance / Revierfoto)"Wir brauchen eine Art Plattform-Rat"
Die Sperrung von Donald Trumps Twitter-Konto sei richtig und lange überfällig gewesen, sagte der Medienwissenschaftler Bernhard Pörksen im Dlf. Man müsse sich aber auch Gedanken machen, wie man diese Plattformen regulieren könne.

Von Hatespeech und Verantwortung

Dass Social-Media-Plattformen mit dem Funktionsprinzip ihrer Algorithmen Falschinformationen, Populismus und undifferenzierte Ansichten zum Teil mit großer Reichweite belohnen, ist kein neues Phänomen.

Das Geschäftsmodell jener Plattformen laute nun einmal "Aufmerksamkeit", erklärte der Digitalexperte Dennis Horn im Deutschlandfunk-Podcast "Der Tag". 

"Deutschlandfunk - Der Tag" vom 08.01.2021 -  Die Verantwortung von Social Media

"Das, was zum Beispiel Donald Trump macht, schafft Aufmerksamkeit. Die Leute regen sich auf, kommentieren, bleiben länger online und sehen deshalb mehr Werbung – das bringt Geld", so Horn. 

Dass Leute, die zu Gewalt aufrufen, gesperrt werden können, sei etwas, das fast niemand bezweifele, sagte Internet-Aktivist Sascha Lobo im Deutschlandfunk Kultur. Jedoch stelle sich die Frage, nach welchen Kriterien darüber entschieden werde.

Problematischer ist aus Lobos Sicht, dass Social-Media-Unternehmen bisher versuchen, die Kriterien "nach Lust und Laune" oder nach den Kriterien der Firmenführung umzusetzen. "Das passt mir auch nicht. Ich glaube, da brauchen wir eine gehörige Dosis demokratischer Prozesse, die sehr viel präziser festlegen: Ab wann sollte tatsächlich ein Account gesperrt werden – und ab wann nicht?"

  (imago images / teutopress) (imago images / teutopress)Sascha Lobo zu Trump und Twitter - "Krokodilstränen, die da jetzt geweint werden"
Sascha Lobo hält die Sperrung des Twitter-Acounts von US-Präsident Donald Trump für angemessen. Generell müssten aber die Kriterien für entsprechende Schritte präziser und im demokratischen Prozess festgelegt werden.

Es bleibt der Zwiespalt: Einerseits der Wunsch nach strengerem Durchgreifen der Netzwerke, andererseits die Bedenken vor womöglich ungerechtfertigtem Stummschalten von Meinungen und somit die Einschränkung von Pluralismus. 

Im Falle von Trumps Plattform-Rauswurf von "Zensur" zu sprechen, geht dem Internetrechtler Matthias Kettemann aber zu weit. "Wenn etwa auch der Regierungssprecher davon spricht, dass diese Plattformen die Meinungsäußerungsfreiheit beachten müssen, muss man schon ein bisschen differenzieren. Private sind nicht einfach so an die Meinungsfreiheit gebunden. Daher liegt hier keine Zensur im klassischen Sinne vor. Was aber stattgefunden hat, ist eine Zäsur, also ein Moment, den es so nicht mehr geben wird. Nämlich einen Moment, wo wir uns alle vor Augen geführt haben, wie mächtig diese Plattformen geworden sind", sagte Kettemann im Dlf. 

  (picture alliance / Consolidated News Photos | Chris Kleponis) (picture alliance / Consolidated News Photos | Chris Kleponis)Medienunternehmen als "Internetpolizei"
Der Internetrechtler Matthias Kettemann begrüßt die Debatte um das Vorgehen sozialer Netzwerke. Die Löschung des Twitter-Profils von Donald Trump stelle dennoch keine Zensur, sondern eine Zäsur dar, sagte Kettemann im Dlf.

Doch warum tun sich die digitalen Big Player offenbar so schwer damit, Verantwortung zu übernehmen und signalisieren erst dann Handlungsbereitschaft, wenn der öffentliche Druck zu groß wird? "Wir sind nur die Plattform. Wir bieten hier nur die Infrastruktur. Wir sind nicht verantwortlich für Inhalte" – dieses Haltung trügen die Unternehmen wie ein Mantra vor sich her, sagte Digitalexperte Horn. "Wären sie verantwortlich, müssten sie ihren Laden sauber halten. Und das wäre sehr teuer. Denn Algorithmen können das nicht."

Die Gesetzeslage  

Instrumente, um eben den genannten "Laden" sprichwörtlich sauber zu halten gibt es bereits. Seit dem 1. Oktober 2017 ist auf nationaler Ebene das Netzwerkdurchsetzungsgesetz (NetzDG) in Kraft. Es soll Betreiber sozialer Netzwerke laut Angaben des  Bundesjustizministeriums zu einer zügigeren und umfassenderen Bearbeitung von Beschwerden über Hasskriminalität und anderer strafbarer Inhalte bewegen.

Nach den Vorfällen in Washington will die Bundesregierung zudem zeitnah das "Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität" verabschieden. Diese auch als Hatespeech-Gesetz bezeichnete Richtlinie war bereits vom Bundestag und Bundesrat verabschiedet worden, wurde jedoch von Bundespräsident Frank-Walter Steinmeier wegen bestimmter Vorgaben des Bundesverfassungsgerichts gestoppt.

Aber auch die EU-Kommission möchte mit dem "Digital Service Act" neue Regeln für Tech-Konzerne schaffen.

Demnach soll die Verantwortung für die Inhalte mit zunehmender Unternehmensgröße ansteigen. Plattformen mit mindestens 45 Millionen aktiven Nutzerinnen und Nutzern in der EU müssen in Zukunft Vorsorge tragen, dass bei ihnen keine illegalen Inhalte verbreitet oder gefälschte Produkte verkauft werden. Wichtiges Detail: Auch externe Prüfer sollen kontrollieren und die Wissenschaft die Funktionsweisen der Plattformen untersuchen dürfen.

  (imago/Photothek/Thomas Trutschel) (imago/Photothek/Thomas Trutschel)Wie die EU die Tech-Konzerne regulieren will
Mit neuen Gesetzen möchte die EU die großen Internetkonzerne besser regulieren. Dabei geht es um Fragen fairen Wirtschaftens, aber auch um besseren Verbraucherschutz. Die Regeln sehen hohe Strafen bei Verstößen vor.

"Es ist sehr leicht, neue Gesetzte zu schreiben, aber es hapert eben in den Strafverfolgungsbehörden", sagte Digitalexperte Dennis Horn. Staatsanwälte und deren Mitarbeiter*innen verfügten derzeit weitgehend nicht über die Kompetenz sowie das Know-how, um Straftaten im digitalen Raum zu verfolgen. Gleiches gelte für die zeitlichen Ressourcen des Personals.

"Wenn man sich das, was wir als Bestand haben an Gesetzen mal genauer anguckt, dann kommt man sehr schnell zu dem Ergebnis, dass das bestehende Gesetzeswerk eigentlich ausreicht. Die Leute, um diese Gesetze dann auch zur Anwendung zu bringen, die fehlen", so Horn weiter.

Ideen für eine bessere (Online-)Welt

"Plattformen sind mächtiger als viele Regierungen, Konzerne kontrollieren den Zugang zu Informationen und ziehen die Grenzen der Redefreiheit", heißt es im "Social Media Watchblog" vom 12. Januar.

Digitalexperten sind sich weitgehend einig darin, dass die Entscheidung darüber, welche Inhalte auf riesigen Kommunikationsplattformen gelöscht werden, nicht von den Plattformen selbst getroffen werden sollten - sondern von Politik und Gesellschaft. "Das Netz braucht demokratische Kontrolle, keine absolutistischen Alleinherrscher", schreiben die Journalisten Simon Hurtz und Martin Fehrensen im "Social Media Watchblog".

Ansätze und Ideen sind bereits vorhanden – auch jenseits von Gesetzen. So schlägt beispielsweise Medienwissenschaftler Bernhard Pörksen vor, einen Plattformrat zu installieren: ein von den jeweiligen sozialen Netzwerken unabhängiges Gremium, das die Plattformen zwinge, ihre teilweise willkürlich angewendeten Richtlinien der öffentlichen Diskussion zugänglich zu machen.

Als weiteren Ansatz, um Content-Moderation in sozialen Netzwerken transparenter zu machen, nennt der "Social Media Watchblog" die sogenannten Santa Clara Principles.

Diese Prinzipien, verfasst von der im Silicon Valley ansässigen Santa Clara University, sollen explizit als Ausgangspunkt für weitere Diskussionen dienen und skizzieren, wie auf sozialen Netzwerken ein Mindestmaß an Transparenz und Rechenschaftspflicht garantiert werden kann – zum einen für die Netzwerkbetreiber selbst, aber zum Beispiel auch für Unternehmen, die diese Plattformen nutzen. Demnach sollten Unternehmen und Netzwerkbetreiber die Anzahl der entfernten Beitrage und der gesperrten Konten aufgrund von Verstößen gegen die Inhaltsrichtlinien veröffentlichen. Zudem sollen Nutzer, dessen Inhalte entfernt oder dessen Konten gesperrt wurde, immer über den Grund informiert werden.

Quellen: Deutschlandfunk, Deutschlandfunk Kultur, Social Media Watchblog (Briefing #694), bmjv.de, santaclaraprinciples.org, jma

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk