Europazentrale in Dublin
Facebook lässt sich in die Karten schauen – ein bisschen

Wie arbeitet Facebook? Lange hat der Weltkonzern ein Geheimnis darum gemacht. Jetzt durften deutsche Journalisten erstmals in die Europazentrale in Dublin. Die Kritik an Hasskommentaren hat die Facebook-Tür geöffnet.

DublinEin Bürogebäude am Grand Canal Square. Sechs Etagen. Viel Glas, viel Stahl. Passanten, die ahnungslos vorbeilaufen, erraten nicht, wer sich hinter der spiegelnden Fassade immer weiter ausbreitet. Über dem Eingangsportal hängt kein Firmenschild. Und doch residiert hier – mitten im so genannten „Silicon Dock“ und in direkter Nähe zu Google, LinkedIn und Twitter – ein Unternehmen, das die Social-Media-Welt in den vergangenen Jahren wohl wie kein zweites vor sich hergetrieben hat: Facebook.

2009 hat der Weltkonzern seine Europazentrale in Dublin eröffnet. 30 Mitarbeiter zogen damals an den Grand Canal Square. Inzwischen sind es 1.100, die in 53 unterschiedlichen Bereichen und Abteilungen arbeiten. Und es werden immer mehr. Unlängst hat Gareth Lambe, Head of Facebook Ireland, einen weiteren Gebäudetrakt angemietet und Kapazitäten für insgesamt 2.000 Mitarbeiter geschaffen.

Die größte Abteilung ist das so genannte Community Operation Team – die Unit, die wie keine zweite unter Beschuss steht, vor allem aus Deutschland. Denn die, nennen wir sie Facebook-Moderatoren, die im Schichtbetrieb rund um die Uhr an sieben Tagen die Woche arbeiten, überprüfen Kommentare und Fotos, die bei Facebook gepostet und von Nutzern als anstößig oder unangemessen gemeldet wurden. Und sie löschen, wenn sie Verstöße gegen Facebooks Gemeinschaftsstandards entdecken.

Oder besser: Falls sie Verstöße entdecken. Denn vor allem in der emotional aufgeheizten Diskussion rund um das Thema Flüchtlinge bleiben auf deutschen Facebook-Seiten immer wieder Kommentare online, aus denen der Hass nur so tropft. So zum Beispiel das Posting eines Mannes aus Berlin, für den das Foto des toten Aylan am Strand von Bodrum ein Grund zum Feiern war. Oder der Beitrag der Seite „Gegen Asylanten in Deutschland“, in dem es hieß: „Mit einem Loch im Hinterkopf wären manche Leute noch zumindest als Nistkasten zu gebrauchen.“

Zahlreiche Kommentare wie diese wurden von aufgebrachten Nutzern gemeldet, oft sogar mehrmals. Doch Facebook sah in den Postings kein Problem und löschte – wenn überhaupt – erst Tage später. Kein Wunder, dass das in Deutschland eine gesellschaftliche Diskussion über Facebooks Moralvorstellungen entfachte.

Fast alle deutschen Medien berichteten, Internet-Vordenker wie der Blogger und Autor Sascha Lobo attestierten Facebook ein „Hate-Speech-Problem“, schließlich zitierte Bundesjustizminister Heiko Maas Facebook-Vertreter zum Gespräch. Und sogar Bundeskanzlerin Angela Merkel forderte Facebook auf, strenger gegen Hass-Kommentare vorzugehen. Den eisigen Wind aus Deutschland müssen sie bis in die letzte Lounge-Ecke am Grand Canal Square von Dublin gespürt haben. Und sie reagierten.

Hakenkreuze müssen raus - oder doch nicht?

In einem Konferenzraum auf der obersten Etage der Zentrale im Silicon Dock steht Siobhán Cummiskey. Als Ordnungshüterin Facebooks spricht die „Policy Managerin für Europa“ vor einer Handvoll ausgewählter Journalisten aus Deutschland, die zu Facebooks erstem deutschen Medientag eingeladen sind. Bisher hat das Unternehmen nur sehr verhalten nach außen kommuniziert und nicht gerade auf Transparenz gesetzt. Das scheint man jetzt ändern zu wollen. Wenigstens ein bisschen.

Vom Alltag im Community Operation Team erzählt Cummiskey und wirbt für Verständnis für den schmalem Grat, auf dem Facebooks Moderatoren wandeln: Ganz im Sinne des amerikanischen Rechts auf „Freedom of Speech“ darf auf Facebook jeder sagen, was er denkt und fühlt. „Auch wenn er damit andere Menschen schockt oder beunruhigt“, betont Cummiskey. Gleichzeitig müssen die Content-Moderatoren darüber wachen, dass Facebook ein sicherer Ort für alle ist und bleibt.

Cummiskey hat einen Kollegen aus dem Community-Team mitgebracht. Einen der vielen deutschen Mitarbeiter, einen Muttersprachler im schwarzen Kapuzenpulli, der sich von Dublin aus jeden Tag auch um deutsche Hass-Kommentare kümmert. Er muss immer wieder aufs Neue entscheiden: Was lasse ich drin, was muss raus? Wird nur das eine Posting entfernt oder gleich die ganze Seite bei Facebook? Ist die Aussage vielleicht nur ironisch gemeint? Oder muss gelöscht werden?

Maschinen und Algorithmen allein finden auf diese Fragen keine passenden Antworten. Beispiel Titanic-Magazin: Das Satireblatt hatte ein – ironisches – Posting abgesetzt, das zahlreiche Hakenkreuze enthielt und sich über die neuen Emoticons (Emojis) als Ergänzung zum „Gefällt mir“-Button lustig machte. Eigentlich sind Hakenkreuze und andere Hass-Symbole bei Facebook verboten und werden gelöscht. Aber in diesem speziellen Fall wurde das Hakenkreuz nicht aus politischen Gründen genutzt, sondern eher um Facebook lächerlich zu machen. Eine komplexe Entscheidung also für die Content-Moderatoren. Das Titanic-Posting blieb stehen.

Keine eigene Schutzkategorie für Flüchtlinge

Was der Fall deutlich zeigt: In Facebooks Community-Management müssen Menschen ran und jeden Fall einzeln bewerten. Wie das genau abläuft, wenn ein Hass-Kommentar gemeldet wird, das bleibt der Fantasie überlassen. Facebook, so sagt man den deutschen Journalisten, möchte seine Mitarbeiter und Mitglieder schützen. Niemand, der nicht im Community Operation Team arbeitet, hat Zutritt zu dem Arbeitsbereich der Moderatoren. Selbst auf welcher der sechs Etagen im „Silicon Dock“ die Community-Manager arbeiten, wird nicht verraten. Dafür stehen im Haus überall bunte, lebensgroße Pappaufsteller, auf denen Filmfiguren die immer gleiche Botschaft verkünden: „No visitors beyond this point!“ Das gilt auch für die Gruppe aus Deutschland. Obwohl am Grand Canal Square seit kurzem ganz vorsichtig eine neue Art der Transparenz gelebt wird – so richtig gerne lässt sich Facebook nicht auf die Tasten gucken.

Auch der deutsche Kollege des Community-Teams ist lieber vorsichtig. Er möchte nicht mit Namen genannt werden, weil er fürchtet, sich sonst zum Ziel der bösen Menschen zu machen, deren Ergüsse er tagtäglich lesen und beurteilen muss.
Wenn er nach konkreten Zahlen gefragt wird (wie viele Leute arbeiten insgesamt im Community-Team, wie viele Deutsche, wie viele Postings werden täglich gemeldet, wie viele davon gelöscht?) gibt er das Wort lieber an Siobhán Cummiskey weiter. Sie sagt aber auch nicht viel. „Hunderte Mitarbeiter“ seien international an den unterschiedlichen Standorten Facebooks mit gemeldeten Postings beschäftigt, weltweit gebe es jede Woche Millionen sogenannter Reports, bleibt die „Policy Managerin“ vage.

Was sie allerdings ohne weiteres erzählt: Intern gibt es neun unterschiedliche globale „Protection Categories“, also Einteilungen zum Schutze der Nutzer. Wenn Menschen beispielsweise wegen ihrer Zugehörigkeit zu einer bestimmten ethnischen Gruppe, ihrer Religion oder sexuellen Orientierung bedroht oder gemobbt werden, schreiten die Moderatoren beherzt ein und löschen.

Flüchtlinge haben keine eigene Kategorie. Sie stehen aber immer dann unter besonderem Schutz, wenn sie in eine der bestehenden Gruppen fallen. Werden Flüchtlinge beispielsweise bedroht, weil sie muslimischen Glaubens sind, löschen die Moderatoren. Denn Drohungen wegen einer bestimmten Religionszugehörigkeit sind ebenso verboten wie Facebook-Seiten, die von terroristischen Gruppen eröffnet wurden.

Aber, wirft Cummiskey ein, die immer wiederkehrende Forderung nach Löschung von Inhalten greife zu kurz. „Löschen ist keine Lösung, um mit Hass-Kommentaren dauerhaft fertig zu werden“, so die ausgebildete Juristin. Erfolgsversprechender sei vielmehr das Prinzip der Gegenrede („Counter Speech“), das Facebook zusammen mit seinen Partnern in Deutschland vorantreiben will: Hass-Kommentare sollen künftig praktisch übertönt und „neutralisiert“ werden.

Counter Speech - bequeme Lösung gegen Hass?

Facebook betont immer wieder, wie ernst man die eigene Verantwortung in Zusammenhang mit Rassismus und Hetze in den sozialen Netzwerken nehme. Gerade die Counter Speech scheint aber eine relativ bequeme Methode für Facebook zu sein: Schließlich sind es die Nutzer und Organisationen wie „Netz gegen Nazis“, die sich positionieren (sollen).

Doch Facebook hat noch einen anderen Lösungsansatz im Köcher: Als Reaktion auf die Debatte in Deutschland hat man eine Eingreiftruppe zum Umgang mit Hetze und Hass im Netz gebildet und arbeitet nun mit Unternehmen, NGOs, Politikern und mit der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM) zusammen.

Die Bildung der Task Force kann als weiteres Zugeständnis an die deutschen Nutzer verstanden werden. Aber auch als Eingeständnis. Denn: Im Community Operation Team arbeiten deutsche Muttersprachler. Aber niemand ist Experte in deutschem Recht, so Siobhán Cummiskey. Zwar gebe es Juristen im Haus. Denen würde man aber schon alleine aus Zeitgründen nicht jeden fraglichen Kommentar zur Überprüfung schicken. Deshalb können Fehler passieren und Beiträge stehen bleiben, die in Deutschland strafbar sind.

Die Task Force soll deswegen an einer globalen Definition von Hate Speech arbeiten, die übergreifend gültig ist. Diese gibt es nämlich bislang nicht. Trotzdem sieht sich Facebook nicht in einer Verteidigungsposition. „Jeden Tag werden Milliarden Inhalte auf Facebook geteilt“, sagt Cummiskey. „Dass unter diesen Inhalten auch welche sein können, die man eigentlich nicht auf der Site lesen möchte, das ist klar.“

Ein mögliches Resultat der Arbeit in der Eingreiftruppe könnten konkrete Handlungsanweisungen für die Mitarbeiter sein. Das würde den Alltag im Community-Team wohl nicht revolutionieren. Aber vielleicht erleichtern. Und effektiver machen.

Bis es soweit ist, müssen sich Facebooks Moderatoren im Silicon Dock weiterhin auf ihr gutes Gespür, ihr Verständnis von Sprache und Gesetz sowie die vom Unternehmen formulierten Gemeinschaftsstandards verlassen. In den meisten Fällen klappte das bisher auch gut, finden die Facebook-Verantwortlichen. Schließlich habe man „Fachleute aus aller Welt“ im Team, die „Backgrounds“ in geltendem Recht und Strafverfolgung hätten. Und sowohl intern als auch extern arbeite man mit weiteren Experten und Entscheidungsträgern zusammen.

Ohnehin seien Hass-Kommentare, das bekommen die Reporter mit auf den Heimweg, nicht das, womit es die Community-Mitarbeiter am häufigsten zu tun hätten. Viel öfter gehe es – global gesehen – um Belangloseres. Um Spam beispielsweise oder um Missgunst unter Sportsfreunden: Immer wieder würden Fußballfans Kommentare melden, einfach weil sich darin ein Fan des verfeindeten Klubs über den letzten Heimsieg freut. Konkrete Zahlen dazu möchte Facebook nicht veröffentlichen.

Man betont aber, das Community-Team komme beim Moderieren der Postings „gut hinterher“. „Wir haben nicht 1.000 unbearbeitete Meldungen irgendwo herumliegen“, will Julie de Bailliencourt, Safety Policy Manager bei Facebook, ein weit verbreitetes Vorurteil widerlegen.

Über dem Eingangsportal des Gebäude am Grand Canal Square soll übrigens bald ein Schild darauf hinweisen, wer sich hinter der spiegelnden Fassade immer weiter ausbreitet. Nichts Großes. Einen dezenten Gefällt-mir-Daumen wünscht sich Facebook-Chef Gareth Lamb. Schließlich sei man keine Bank, die Publikumsverkehr brauche. Nein, man ist Facebook. Und so weit geht die neue Transparenz dann wirklich nicht.

Tina Halberschmidt, Social-Media-Redakteurin
Tina Halberschmidt
Handelsblatt / Teamleiterin und Redakteurin Social Media
Serviceangebote
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%