Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Europawahl

EU-Wahl Facebook reguliert Wahlwerbung – warum das trotzdem nicht viel hilft

Kurz vor der Europawahl reguliert Facebook Wahlwerbung deutlich strenger als bisher. Experten begrüßen die Maßnahme. Doch viele Probleme bleiben.
Update: 23.04.2019 - 18:05 Uhr Kommentieren
Facebook: Aktuelle News und Trends des sozialen Netzwerks Quelle: Reuters
Facebook -Logo

Die meinungsbildende Macht des sozialen Netzwerkes wird häufig überschätzt.

(Foto: Reuters)

BerlinKurz vor der Europawahl vom 23. bis zum 26. Mai macht Facebook ernst und zieht nationale Grenzen: Parteien und ihre Marketingagenturen dürfen in dem sozialen Netzwerk nur Wahlwerbung schalten, wenn sie nachgewiesen haben, dass sie auch in dem Land arbeiten, in dem sie werben wollen. Die Wahlwerbung von beispielsweise italienischen EU-Abgeordneten kann in Deutschland niemand sehen.

Mit der Maßnahme versucht das weltweit größte soziale Netzwerk sein ramponiertes Image zu verbessern und das Vertrauen der Nutzer zurückzugewinnen. Denn der Datenskandal rund um die Firma Cambridge Analytica Anfang 2018 wirkt noch nach. Damals musste Facebook-Gründer Mark Zuckerberg öffentlich zugeben, die Daten seiner Nutzer zu wenig geschützt zu haben.

Die mittlerweile aufgelöste Firma hatte bei Facebook über eine Umfrage-App Daten von etwa 87 Millionen Nutzern gesammelt und sie illegal an das Wahlkampfteam von US-Präsident Donald Trump verkauft. Auf Basis dieser Daten wurde gezielt Werbung in den sozialen Medien ausgespielt. Noch immer ist der Vorwurf nicht ausgeräumt, dass so der US-Wahlkampf zu Gunsten Trumps manipuliert wurde.

Nachdem der Fall bekannt geworden war, forderten die EU und 40 NGOs mehr Verantwortung und Transparenz von Facebook. Denn bisher ist der Wahlkampf in den sozialen Medien ist eine Black Box. Welche Summen von wem für gesponsorte Posts – also Werbung – an wen fließen, ist weder erfasst noch reguliert.

Von nun an also landet Wahlwerbung, die nicht registriert worden ist oder vor der Regelung geschaltet wurde, in der Werbebibliothek.

Die strengere Kontrolle von Wahlwerbung „ein Schritt in die richtige Richtung“, sagt Alexander Sängerlaub. Er untersucht für den Berliner Think Tank „Stiftung Neue Verantwortung“ das Problem von Wahlwerbung, Desinformationskampagnen und Fake News im Netz.

Facebook reagiere mit der Maßnahme auf die Kritik von EU und NGOs. Sängerlaub kann sich auch vorstellen, dass das Konzept der stark regulierten Wahlwerbung im öffentlich-rechtlichen Rundfunk auch ins Netz übertragen werden kann. Im Fernsehen bekommen die Parteien beispielsweise Wahlwerbezeit nach politischen Gewicht zugeteilt.

Facebook prüft Verhaltensmuster, keine Inhalte

Ein gewichtiges Problem sei aber trotzdem noch nicht gelöst: „Wir überlassen Facebook die Verantwortung und Definition, was politische Werbung ist“, sagt Sängerlaub. Denn Filterung und Sortierung erfolgten zum größten Teil über maschinelles Lernen, das auf Definitionen zurückgreift. Was gefiltert wird, sei von außen kaum nachvollziehbar. „Es braucht unabhängige Forschung, um die Genauigkeit der Tools einschätzen zu können. Diese untergräbt Facebook“, sagt er.

Ein Beispiel sei der Fall Propublica. Dessen Web-App „Political Ad Collector“ hat Facebook Anfang des Jahres gesperrt. Mit diesem Plug-in konnten Nutzer Facebook-Seiten scannen und so herausfinden, welches „targeting“ hinter der ihnen angezeigten Werbung steckt.

Mit „targeting“ sind die Kriterien gemeint, die Werbung automatisch personalisieren. So werden Werbeposts beispielsweise nach Geschlecht, Hobbys und Wohnort ermittelt und entsprechend nur der Zielgruppe angezeigt. Die gesammelten Informationen hat die NGO, häufig in Zusammenarbeit mit Wissenschaftlern, ausgewertet.

Facebook erklärt, dass die Sperre des Tools von Propublica sei keine strategische Absicht, sondern eine Sicherheitsmaßnahme gewesen. „Wir nehmen regelmäßig Änderungen an unserer Plattform vor, um zu verhindern, dass Nutzerinformationen missbraucht werden. Solche Updates betreffen auch Drittanbieter-Plug-Ins, die zum Scraping eingesetzt werden“, teilte das Unternehmen dem Handelsblatt auf Anfrage mit. Scraping meint das Auslesen von Informationen.

Experte Sängerlaub sieht noch ein weiteres Problem: „Die Frage ist doch, wie wichtig Wahlwerbung überhaupt für die politische Meinungsbildung ist. Der Großteil des problematischen Inhalts kommt ganz klassisch über normale Posts.“ Und für die gibt es kein Transparenztool.

Auch bei dieser Frage versucht die Sprecherin zu beruhigen: „Facebook ist sich des Problems bewusst“, sagt Sprecherin Anne Laumen. Um die Verbreitung von Falschmeldungen zu vermeiden, arbeite das Unternehmen mit Journalisten der Deutschen Presse-Agentur und des Recherchebüros Correctiv zusammen.

Um aber gegen Fake-Accounts und Desinformationskampagnen vorzugehen, untersucht ein Team bei Facebook auf Basis technischer Daten unauthentische Verhaltensmuster wie automatisiertes Posten, beispielsweise in zeitlich stets exakt denselben Abständen. Die dort geposteten Inhalte prüft Facebook allerdings nicht. Das heißt: Facebook kontrolliert also die Inhalte von Wahlwerbung, Kampagnen zur politischen Desinformation allerdings rutschen durchs Raster.

So dürften die Maßnahmen, die Facebook zur Europawahl ergreift, nicht ausreichen.

Lisa-Maria Neudert, Doktorandin an der britischen Universität Oxford, verfolgt die Entwicklung gesellschaftlicher Debatten in sozialen Netzwerken mit Sorge. Ihre Forschung deutet darauf hin, dass „die Quellen politischer Desinformation in Deutschland nicht fremde Mächte, sondern heimische Akteure sind, die aus politischen und wirtschaftlichen Motiven handeln“.

Als Beispiel nennt sie den islamfeindlichen Blog Philosophia Perennis, das rechtsextreme Magazin „Zuerst!“ und den deutschen Ableger des russischen Staatssenders „Russia Today“. Sie steigern ihre Reichweiten mit extremen Meinungen – und damit ihre Werbeerlöse. Die nationale Eingrenzung von Wahlwerbung ist für dieses Problem wirkungslos. Zudem wandern viele Debatten auf privatere Plattformen wie Whatsapp ab, wo sie kaum noch einsehbar sind.

Misstrauen in die Demokratie erzeugen

Simon Hegelich, Professor für politische Datenanalyse der Hochschule München, bewertet die Maßnahme von Facebook, als „einen wichtigen ersten Schritt“. So würden Akteure, die gezielt falsche Informationen streuen wollen, abgeschreckt oder könnten an bürokratischen Hürden scheitern.

Doch die Gefahr von Desinformationskampagnen sei damit nicht gebannt. Solche Kampagnen hätten seltener das Ziel, konkrete Wahlergebnisse zu beeinflussen. Stattdessen ginge es meist darum, grundsätzliches Misstrauen in die Demokratie zu erzeugen. Gerade bei Themen wie politisch korrekter Sprache, Migration und Religion würde nachweislich Meinung gemacht – und zwar extrem einseitig. „Die Gefahr einer Wahlmanipulation während der Europawahl halte ich aber für sehr gering.“

Startseite

Mehr zu: EU-Wahl - Facebook reguliert Wahlwerbung – warum das trotzdem nicht viel hilft

0 Kommentare zu "EU-Wahl: Facebook reguliert Wahlwerbung – warum das trotzdem nicht viel hilft"

Das Kommentieren dieses Artikels wurde deaktiviert.