Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Soziale Medien Angriffsziel Europawahl: Der Kampf gegen Fake News und Hetze

Behörden fürchten bei der Wahl am Sonntag Manipulationsversuche durch gezielt gesteuerte Falschnachrichten. Die Social-Media-Unternehmen setzen bei der Abwehr auf KI – mit mäßigem Erfolg.
Kommentieren
Europawahl 2019 als Angriffsziel: Kampf gegen Fake News und Hetze Quelle: dpa
Europawahl

Vor der Abstimmung grassierte die Angst vor Falschnachrichten, die die Wahl beeinflussen könnten.

(Foto: dpa)

BerlinNur für wenige Stunden war der Twitter-Account von Sven Kohlmeier letzte Woche gesperrt. Der Grund war da schon einige Tage alt: Ein früherer Tweet des SPD-Politikers über die AfD hatte in den Augen der Betreiber gegen die Regeln „zum Veröffentlichen von irreführenden Informationen zu Wahlen“ verstoßen.

Der erste Verdacht: künstliche Intelligenz (KI). Seit einer Anhörung des Unternehmens vor einem Ausschuss des Bundestags steht aber fest: Hinter der Entscheidung steckten Menschen. Die KI stößt an ihre Grenzen.

Kurz vor der Europawahl beunruhigt das Thema viele Wähler. Laut einer Studie des Beratungshauses PwC sehen 71 Prozent der Deutschen in Fake News eine „große Gefahr“ im Vorfeld der Wahl. Im Bericht heißt es auch: „Mehr als jeder vierte glaubt, dass er durch Fake News in seiner Wahlentscheidung beeinflussbar ist.“ Auch Hassrede nehmen Nutzer verstärkt wahr.

So gaben letztes Jahr 78 Prozent der Befragten einer Forsa-Umfrage an, schon Hassrede im Internet gesehen zu haben, elf Prozentpunkte mehr als im Vorjahr. Allein in Hessen gab zudem ein Drittel der Befragten einer weiteren Umfrage an, schon online beleidigt oder bedroht worden zu sein, bei den 18- bis 24-Jährigen sogar 69 Prozent.

Die Folgen können von Depressionen bis hin zum Suizid reichen, aber auch körperliche Gewalt fördern: Forscher der Universität Warwick fanden heraus, dass Gewalt gegen Geflüchtete besonders dann ansteigt, wenn in einer Gemeinde zuvor feindliche Kommentare auf Facebook gepostet wurden.

Unternehmen wie Facebook, Twitter und YouTube versuchen daher seit Jahren, Hassrede und Fehlinformationen zu bekämpfen, auch mit Hilfe von KI. Damit reagieren sie auf verstärkten Druck aus der Politik. Immer wieder sperren sie aber auch unproblematische Beiträge. Neben Kohlmeier waren davon kurz vor der Anhörung rund 100 Nutzer in Deutschland betroffen.

„Lieber zu viel als zu wenig sperren“

Grund für die Sperrungen ist das sogenannte „Overblocking“, also Sperrungen als Vorsichtsmaßnahmen. Dabei werden Inhalte auf Verdacht entfernt, die auch unbedenklich sein könnten. Um die enormen Datenmengen zu bearbeiten, setzen die Plattform-Betreiber vermehrt auf Algorithmen, denn nicht alle Verstöße werden von Nutzern gemeldet. Tatsächlich helfen Algorithmen aber lediglich bei der Vorauswahl. Die endgültige Entscheidung über Sperrungen werde ausschließlich von Menschen getroffen, wie eine Twitter-Sprecherin in der Anhörung erklärte.

Laut Philip Kreißel, Datenanalyst beim Verein Ichbinhier e.V., geschehe das oft getreu dem Motto „lieber zu viel als zu wenig sperren“. Er betont, dass die Unternehmen zu wenig tun: „Die Accounts werden dann zwar gelöscht, aber am nächsten Tag stehen die Leute mit einem neuen Account auf der Matte und machen genau da weiter, wo sie aufgehört haben.“

Deshalb brauche es Strafverfolgung: „Die sozialen Netzwerke allein können das Recht nicht durchsetzen.“ Mit dem Hashtag #ichbinhier engagiert er sich auch persönlich gegen Hassrede.

Dabei funktionieren die Algorithmen wie eine Texterkennungssoftware: Sie durchsuchen Texte auf bestimmte Worte, markieren sie zum Beispiel als positiv, negativ – oder eben als potenziell hasserfüllt. Laut Facebook-Chef Mark Zuckerberg liegt der Anteil der Hassrede-Inhalte, die das Unternehmen so selbst entdeckt und entfernt, noch bevor Nutzer sie melden, bei 65 Prozent. Im Vorjahr waren es noch 24 Prozent.

Zum Umgang mit Hassrede tauschen sich die Unternehmen auch untereinander aus. So gebe es sowohl in den USA als auch in Europa „gemeinsame Übereinkünfte“. Doch oft scheitert die KI an Witz, Satire und Ironie, erklärt Orestis Papakyriakopoulos. Er erforscht an der TU München die Rolle von KI in der Politik: „Sprache ist komplex, Sprache wandelt sich. Die KI kommt da nicht mit.“

Google bestätigt den Trend zur KI: „Algorithmen spielen definitiv eine wachsende Rolle“, so ein Sprecher. Dennoch werde die KI bewusst weiterhin durch Menschen kontrolliert. Bei Facebook sieht man das ähnlich: „Gerade bei Hassrede ist der Kontext wichtig und daher brauchen wir momentan immer Personen, die Inhalte überprüfen - obwohl wir natürlich die ersten sind, die auf Technologie setzen.“ Auch Experte Papakyriakopoulos bestätigt das: „Menschen sind nicht unbedingt besser als die KI, wie sich jetzt gezeigt hat.“

Facebook beauftragt dabei auch Angestellte in Drittfirmen, in Deutschland überprüfen rund 2000 Menschen Texte, Fotos und Videos auf verschiedensten Sprachen, die Teams sitzen in Berlin und Essen. Besonders in der Kombination von KI und menschlicher Intelligenz werden Probleme sichtbar, meint Julia Ebner, Forscherin am renommierten Londoner Institute for Strategic Dialogue, und gibt ein Beispiel aus dem Jahr 2015: „Google markierte Fotos von Menschen mit dunkler Haut als Gorillas.

Der Algorithmus hatte einfach nur von einer Gruppe Menschen gelernt, und die hatten nicht genügend diverse Bilder eingepflegt.“ Seither ist viel passiert, doch die Technologie hat noch immer Lücken.

Bilder, die auf einer Plattform gesperrt wurden, tauchen beispielsweise oft anderswo im Netz auf. Um das zu verhindern, tauschen Facebook, Twitter, Instagram und Google Daten über gelöschtes Material auf einer gemeinsamen Plattform aus.

Doch organisierte Gruppen wissen das laut Ebner zu umgehen: „Die ändern dann einfach das Bild ganz leicht ab, dann erkennt der Filter das nicht.“ Auch beim Verfassen von Hassnachrichten sind die Verbreiter oft regelrecht geschult, kennen die Feinheiten, die letztendlich über Sperrungen oder rechtliche Konsequenzen entscheiden.

Gruppen, die gezielt Desinformation und Hass streuen wollen, tauschen sich gezielt über Strategien zur Strafvermeidung aus. Dabei ist nur eine kleine Minderheit der Nutzer für die Hassrede im Netz verantwortlich: Die Hälfte der Likes bei Hasskommentaren auf Facebook gehen auf nur fünf Prozent der Accounts zurück, so Kreißel.

Grünen-Politikerin Renate Künast kennt das aus eigener Erfahrung: „Wie gehen wir eigentlich damit um, dass Leute ihre Sätze bewusst, millimetergenau um die Rechtsprechung herumzirkeln? Warum soll es keine Beleidigung sein, wenn jemand schreibt ‚Von Ihnen würde ich gerne ein Enthauptungsvideo sehen‘?“ Dafür müsse man eine konkretere Absicht zu einer Tat äußern. 

Politik sieht Verantwortung bei Unternehmen

Politiker sehen die Verantwortung dafür neben der Politik auch bei den Unternehmen selbst. Jimmy Schulz ist FDP-Bundestagsabgeordneter und leitet den Ausschuss Digitale Agenda. Menschen hätten zuweilen Schwierigkeiten damit, Satire zu erkennen oder den politischen Kontext einer Nachricht einzuordnen, erklärt er. Schulz fordert deshalb einen gesamtgesellschaftlichen Diskurs: „Ich sehe die Verantwortung sowohl bei den Unternehmen als auch bei der Politik und den Bürgerinnen und Bürgern selbst.“

Denn viele Politiker sehen in der Thematik eine Gefahr für die Demokratie. Man müsse man darauf achten, die Meinungsfreiheit im Netz nicht einzuschränken wie beim Overblocking, fordert daher Manuel Höferlin, digitalpolitischer Sprecher der FDP. Das stelle „eine wesentlich größere Gefahr für die Demokratie dar als viele verwerfliche Äußerungen“, so Höferlin.

Auch Petra Sitte, stellvertretende Vorsitzende der Bundestagsfraktion Die Linke, weist auf die gesellschaftliche Stellung der Unternehmen hin: „Die Plattformen tragen eine gesellschaftliche Verantwortung, der sie nur sehr ungenügend nachkommen.“

Dem könnten die Unternehmen durch Transparenz entgegenwirken, schlägt Anna Christmann, Sprecherin der Grünen für Innovations- und Technologiepolitik, vor. Sie bemängelt den fehlenden Kooperationswillen. Bisher erteilten die Plattformen nur wenigen Forschungsgruppen Zugang zu Datensätzen. Um Hassrede und Fehlinformationen besser zu verstehen und entsprechende Lösungen zu entwickeln, sei das aber nötig. „Und wenn sie Zugang bekommt, werden die Datensätze von Facebook und Co. selbst zusammengestellt.“

Dennoch warnen einige Abgeordnete davor, Algorithmen nicht wichtiger zu machen, als sie sind: „Man darf den Stand und die heutigen Fähigkeiten von KI nicht überschätzen“, meint Falko Mohrs. Für die SPD sitzt er im Ausschuss Digitale Agenda und der Enquete-Kommission „Künstliche Intelligenz“.

Anke Domscheit-Berg, netzpolitische Sprecherin der Fraktion Die Linke, betont die staatliche Rolle bei der Bestrafung der Täter: „Die Rechtsdurchsetzung mangelt nicht bei Facebook. Die mangelt bei der Justiz, deren Aufgabe sie ist“. Das Outsourcen staatlicher Aufgaben an Unternehmen gehöre sich schlichtweg nicht, so Domscheit-Berg.

Bei Facebook möchte man die Verantwortung nicht allein tragen. „Wir haben sicherlich nicht von Anfang an alles richtig gemacht“, so ein Sprecher. „Das, was in den sozialen Netzwerken passiert, ist Ausdruck eines gesellschaftlichen Problems“, der Handlungsspielraum der Unternehmen sei deshalb begrenzt.

Bei Twitter zeigt man sich der eigenen Fehler bewusst: „Manchmal kann es zu Unregelmäßigkeiten und Fehlern kommen, wenn wir neue Regeln oder Meldewege einführen. Wenn das passiert tut uns das leid“, so ein Sprecher. „Wir analysieren diese Fehler natürlich, um unseren Ansatz zu verbessern und weiterzuentwickeln, um unser Ziel einer konstruktiven, öffentlichen Gesprächskultur weiter voranzutreiben.“

Die Sorge vor Wahlmanipulationen scheint sich bisher nicht zu bewahrheiten: Bisher sahen Experten keine verdächtigen Bewegungen oder größere, die über das übliche Maß hinausgingen.

Mehr: EU-Justizkommissarin Věra Jourová verteidigt die europäischen Datenschutzregeln, bemängelt im Interview mit dem Handelsblatt aber den Einsatz von Ressourcen. Für den Erfolg von Falschnachrichten hat sie eine einfache Begründung: „Fake News sind oft sexyer als Fakten“

Brexit 2019
Startseite

Mehr zu: Soziale Medien - Angriffsziel Europawahl: Der Kampf gegen Fake News und Hetze

0 Kommentare zu "Soziale Medien: Angriffsziel Europawahl: Der Kampf gegen Fake News und Hetze"

Das Kommentieren dieses Artikels wurde deaktiviert.

Serviceangebote